OpenAI и Anthropic провели взаимное тестирование моделей на предмет галлюцинаций и безопасности
Jinse Finance сообщает, что OpenAI и Anthropic недавно провели взаимную оценку моделей друг друга, чтобы выявить возможные проблемы, которые могли быть упущены в собственных тестах. Обе компании заявили в своих блогах в среду, что этим летом они провели тестирование безопасности публично доступных AI-моделей друг друга и проверили склонность моделей к галлюцинациям, а также проблему так называемого "misalignment" — когда модель работает не так, как ожидали разработчики. Эти оценки были завершены до выпуска OpenAI модели GPT-5 и релиза Anthropic Opus 4.1 в начале августа. Anthropic была основана бывшими сотрудниками OpenAI.
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Индекс доллара США немного вырос до 98.233, евро к доллару США слегка снизился.
Бета-версия Jupiter Lend теперь доступна онлайн
Symbiotic: функция внешнего вознаграждения запущена
Популярное
ДалееЦены на крипто
Далее








