Четверг, 15 мая в 03:53 UTC+3
Загрузка...

OpenAI обещает большую прозрачность в отношении галлюцинаций моделей и вредоносного контента.


4Опубликовано 15.05.2025 в 02:09Категория: ИИИсточник
Изображение статьи

Компания OpenAI запустила новую веб-страницу под названием Safety Evaluations Hub (Центр оценки безопасности), чтобы публиковать информацию об уровне галлюцинаций своих моделей, а также об их способности генерировать вредоносный контент, следовании инструкциям и устойчивости к попыткам взлома (jailbreak).

Технологическая компания утверждает, что эта новая страница обеспечит дополнительную прозрачность в работе OpenAI, которая, к слову, столкнулась с несколькими исками, обвиняющими ее в незаконном использовании материалов, защищенных авторским правом, для обучения своих ИИ-моделей. Кроме того, The New York Times заявила, что технологическая компания случайно удалила доказательства в рамках разбирательства о плагиате.

Safety Evaluations Hub призван расширить функциональность System Cards (Карточек системы), которые описывают меры безопасности на момент запуска разработки. В отличие от них, Hub должен предоставлять актуальные обновления. "По мере развития науки оценки ИИ мы стремимся делиться нашими успехами в разработке более масштабируемых способов измерения возможностей и безопасности моделей", – говорится в заявлении OpenAI. "Публикуя здесь часть результатов оценки безопасности, мы надеемся не только упростить понимание характеристик безопасности систем OpenAI с течением времени, но и поддержать усилия сообщества по повышению прозрачности в этой области".

OpenAI также добавляет, что работает над более проактивной коммуникацией в этой области внутри компании. Представляем Safety Evaluations Hub – ресурс для изучения результатов оценки безопасности наших моделей. В то время как System Cards содержат показатели безопасности на момент запуска, Hub будет периодически обновляться в рамках наших усилий по проактитивному информированию об обеспечении безопасности.

Заинтересованные пользователи могут ознакомиться с разделами Hub и получить информацию о соответствующих моделях, таких как GPT-4.1 через 4.5. OpenAI отмечает, что информация, представленная в этом Hub, является лишь "снимком" текущего состояния, и для получения более подробной информации следует обращаться к System Cards, оценкам и другим публикациям компании.

Важным моментом является то, что все эти оценки безопасности проводятся самой OpenAI, и компания сама решает, какую информацию публиковать. В связи с этим нет никакой гарантии, что компания будет делиться всеми своими проблемами или опасениями с общественностью.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.