Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Компания OpenAI запустила новую веб-страницу под названием Safety Evaluations Hub (Центр оценки безопасности), чтобы публиковать информацию об уровне галлюцинаций своих моделей, а также об их способности генерировать вредоносный контент, следовании инструкциям и устойчивости к попыткам взлома (jailbreak).
Технологическая компания утверждает, что эта новая страница обеспечит дополнительную прозрачность в работе OpenAI, которая, к слову, столкнулась с несколькими исками, обвиняющими ее в незаконном использовании материалов, защищенных авторским правом, для обучения своих ИИ-моделей. Кроме того, The New York Times заявила, что технологическая компания случайно удалила доказательства в рамках разбирательства о плагиате.
Safety Evaluations Hub призван расширить функциональность System Cards (Карточек системы), которые описывают меры безопасности на момент запуска разработки. В отличие от них, Hub должен предоставлять актуальные обновления. "По мере развития науки оценки ИИ мы стремимся делиться нашими успехами в разработке более масштабируемых способов измерения возможностей и безопасности моделей", – говорится в заявлении OpenAI. "Публикуя здесь часть результатов оценки безопасности, мы надеемся не только упростить понимание характеристик безопасности систем OpenAI с течением времени, но и поддержать усилия сообщества по повышению прозрачности в этой области".
OpenAI также добавляет, что работает над более проактивной коммуникацией в этой области внутри компании. Представляем Safety Evaluations Hub – ресурс для изучения результатов оценки безопасности наших моделей. В то время как System Cards содержат показатели безопасности на момент запуска, Hub будет периодически обновляться в рамках наших усилий по проактитивному информированию об обеспечении безопасности.
Заинтересованные пользователи могут ознакомиться с разделами Hub и получить информацию о соответствующих моделях, таких как GPT-4.1 через 4.5. OpenAI отмечает, что информация, представленная в этом Hub, является лишь "снимком" текущего состояния, и для получения более подробной информации следует обращаться к System Cards, оценкам и другим публикациям компании.
Важным моментом является то, что все эти оценки безопасности проводятся самой OpenAI, и компания сама решает, какую информацию публиковать. В связи с этим нет никакой гарантии, что компания будет делиться всеми своими проблемами или опасениями с общественностью.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...