OpenAI выдала на-гора очередную модель, которая, как обычно, должна была перевернуть наши представления об искусственном интеллекте. Ту самую o1, что «думает» как человек. Презентация оказалась пророческой. Почти «человеческое» мышление породило высокие риски. Речь об угрозе создания нового вида биологического оружия. OpenAI впервые признала, что с этой моделью можно «наделать делов». Ох уже эти попытки привлечь внимание любой ценой. Но давайте все-таки разберемся, так ли это опасно, как нам пытаются преподнести.
В системной карте o1 черным по белому написано, что риски создания с помощью этой модели биологического оружия, цитируем, «средние». Звучит не очень пугающе. И пострашнее видали. Но все познается в сравнении. Все предыдущие модели, включая GPT-4o, имели «низкий» риск, на фоне которого «средний», действительно, вызывает вопросы. Вот и аналитики из Financial Times отметили, что это максимальный уровень риска, который OpenAI когда-либо заявляла.
Ближе к сути. Если вы не ученый с лабораторией под боком, никакого биооружия создать не получится. Для реального производства чего-то опасного нужен серьезный бэкграунд. Да, o1 описывают как максимально приближенную к человеческому мышлению модель. Она работает на основе сложных архитектур, которые могут имитировать креативные процессы, ассоциативное мышление и решать задачи из области научных исследований. Но это не значит, что ИИ начнет самостоятельно работать над планом уничтожения человечества.
Без руководства людей ничего подобного не случится. Как и любой инструмент, o1 – палка о двух концах. И в реальности риски не такие масштабные. Создать биооружие – это не просто ввести соответствующий промпт. Для его разработки нужны экспертные знания, исследования, оборудование.
Эксперты Nature Biotechnology отметили, что системы искусственного интеллекта действительно могут работать как ускорители каких-то процессов, но полностью перекладывать на них ответственность и вину – слишком смело. o1 может помочь с анализом данных, но сгенерировать смертельный вирус без помощи специалистов даже у этой прогрессивной модели не получится.
И мы приходим к тому, что все риски крутятся не вокруг нейросетей, а возле людей, которые примерно понимают, как создаются опасные штуки. Без специалистов и лабораторий o1 не является инструментом создания биооружия. А с нейросетями или без них ученые продолжат заниматься своими делами.
И мы подходим к тому, не хайп ли это. Возможно, OpenAI просто пытается привлечь внимание к новой модели. Как вариант, перед нами классическая ситуация, когда компания старается защитить себя от будущих обвинений. Ведь лучше перестраховаться и заранее сообщить об угрозе, чем потом отвечать за последствия. Мол, мы предупреждали. С нас взятки гладки. В любом случае, мы находимся на пороге новой эры, где каждый шаг в развитии ИИ сопряжен с какими-то рисками. Сохраняем спокойствие и продолжаем следить за новостями.