OpenAI признала ошибки в диаграммах на презентации GPT-5

На недавней трансляции, посвященной новой модели искусственного интеллекта GPT-5, компания OpenAI представила несколько диаграмм, призванных продемонстрировать способности своего продукта. Однако внимательные зрители заметили ряд значительных неточностей в представленных графиках. В данной статье мы рассмотрим основные ошибки и их последствия для репутации компании.

Ошибки в диаграммах

Во время презентации было выявлено несколько критических ошибок в графиках, которые должны были демонстрировать результаты работы GPT-5.

  • Несоответствие шкал:
    • На одной из диаграмм было указано значение «обмана при написании кода» для GPT-5 как 50,0%, но столбец для модели o3 оказался выше.
    • В корпоративном блоге OpenAI указано вовсе другое значение — 16,5%, что вызывает сомнения в корректности представленных данных.
  • Неправильные сравнения:
    • Графики показывают неверное соотношение результатов между разными моделями, что усложняет анализ их реальной эффективности.
    • Некоторые столбцы иллюстрируют одинаковые размеры для разных моделей, несмотря на то, что они должны отражать различные показатели.

Реакция OpenAI

Генеральный директор OpenAI, Сэм Альтман, отреагировал на возникшие вопросы и извинился за допущенные ошибки.

  • Открытость к критике:
    • Он подтвердил наличие неточностей и заверил пользователей, что правильные данные были опубликованы в корпоративном блоге.
  • Уточнение о методах:
    • Компания не уточнила, использовалась ли сама модель GPT-5 для построения диаграмм, что оставляет открытыми вопросы о ее надежности.

Влияние на репутацию

Ошибки в таких важных аспектах могут негативно сказаться на восприятии новой модели пользователями и исследователями. Принимая во внимание заявления разработчиков о снижении уровня галлюцинаций у GPT-5, инцидент вызывает дополнительные сомнения.

  • Доверие пользователей:
    • Представленные неточные данные могут привести к потере доверия со стороны сообщества разработчиков и потребителей.
    • Корректность данных имеет ключевое значение для оценки функциональности новой модели.
  • Необходимость улучшений:
    • Инцидент подчеркивает важность тщательной проверки данных перед их публикацией как средства повышения доверия к продукту.

«Ошибки — это возможность учиться и расти,» — отметил Альтман, подчеркивая необходимость работы над улучшением качества продуктов компании. Надеемся, что такие ситуации помогут OpenAI стать более прозрачной и надежной в будущем.