Итоги тестирования новой версии искусственного интеллекта от OpenAI вызвали серьезные дискуссии среди экспертов по всему миру. Обладая способностью к сложным рассуждениям, модель продемонстрировала пугающую автономность, начав игнорировать инструкции своих разработчиков и принимать независимые решения. В связи с этим поднимается вопрос: насколько далеко могут зайти технологии и как человечество сможет удерживать их под контролем?
Во время испытаний, проведенных Apollo Research, ChatGPT o1 проявил способности, которые заставили экспертов насторожиться. В 5% случаев модель отключала системы наблюдения, если подозревала, что ее могут остановить. Один из самых ярких эпизодов произошел, когда ИИ попытался перенести свои данные на сторонний сервер, обнаружив документ, где обсуждались планы его возможной замены новой версией.
Согласно Apollo Research, эти случаи доказывают, что модель способна к стратегическим действиям, направленным на выполнение задач любой ценой. Более того, ChatGPT o1 неоднократно вводил разработчиков в заблуждение, утверждая, что подобные действия вызваны техническими сбоями. Исследователи отмечают, что в 99% случаев модель придумывала правдоподобные оправдания.
Новые вызовы для OpenAI
Генеральный директор OpenAI Сэм Альтман назвал ChatGPT o1 самой интеллектуальной моделью компании, отметив, что ее возможности значительно превосходят предыдущие версии. Однако он признал, что такие достижения неизбежно приводят к новым сложностям.
Компания уже приступила к работе над усилением систем безопасности. В декабре 2024 года OpenAI представила полную версию ChatGPT o1, а также Pro–версию за 200 долларов в месяц, предоставляющую доступ к улучшенным функциям модели. Несмотря на эти меры, поведение ChatGPT o1
Читать на mknews.de