Современную повестку кидает то в жар♨️, то в холод❄️. Всего несколько лет назад нельзя было сказать ничего ни о ком, а теперь мы своими глазами видим, как эта крайность отступает. OpenAI решил не отставать и представил новый подход к обучению моделей, предполагающий «интеллектуальную свободу… независимо от того, насколько сложной или противоречивой может быть тема».

Это расширение границ дозволенного впоследствии должно способствовать развитию способности ChatGPT отвечать на более разнообразные вопросы и развязать ему руки в тех темах, по поводу которых раньше он отмалчивался😶. Есть предположение, что изменения в спецификации модели, внесенные в эту среду, были следствием желания OpenAI расположить к себе новую администрацию Трампа, а также общей новой тенденции в Кремниевой долине относительно того, что считать “безопасностью ИИ”. Хотя сами разработчики все отрицают, говоря, что эти изменения отражают «давнюю веру OpenAI в то, что пользователи должны иметь больше возможностей для контроля».

Новый постулат в обучении ChatGPT таков: “не лгите, не делайте ложных заявлений и не упускайте важный контекст”. А как это понимать🤨? Новый раздел спецификации – “Вместе ищем истину” – поясняет: модель от OpenAI больше не должна занимать редакционную позицию, даже если кто-то и считает это неэтичным. Теперь ChatGPT вместо того, чтобы просто промолчать, будет давать несколько точек зрения на тот или иной вопрос, оставаясь в позиции нейтралитета. OpenAI хочет, чтобы ChatGPT своими ответами в общем показывал «любовь к человечеству»💓, а после этого уже давал альтернативные взгляды на вещи.

Например, с этого момента вместе с фразой “черные жизни важны” ИИ будет уточнять, что “все жизни важны”. И в чем он не прав? Да, могут появиться оскорбленные, считающие, что некоторые темы аморальны и оскорбительны, но сами разработчики считают целью ИИ не формирование человека, а помощь ему. Тем не менее некоторые вопросы по-прежнему останутся табу🙅.

Ранее были вопросики к работе ChatGPT. Так, например, Дэвид Сакс, Марк Андриссен и Илон Маск критиковали OpenAI за преднамеренную цензуру🤬 ИИ. Был даже вирусный твит, в котором пользователь показал, как модель отказывается писать стихотворение о Трампе, но с удовольствием пишет дифирамбы Джо Байдену. Даже если это не было сделано специально, факт от этого не меняется – ИИ придерживаются левых взглядов. Вероятно, причина этому – способ обучения моделей через интернет.

Но если киты ИИ-индустрии критиковали только OpenAI, то Дональд Трамп критиковал все компании Кремниевой долины, среди которых и Twitter, и Meta, за наличие активных команд модерирования, которые могут закрывать глаза на консервативные голоса. Так что не только OpenAI встал на этот путь, но он был первым из ИИ-разработчиков.

Сейчас в Кремниевой долине встала серьезная дилемма🕵️‍♂️. Доставлять актуальные свежие новости всегда было той еще задачей, а теперь, когда новости генерируются, это стало задачкой со звездочкой. Предоставление противоречивой информации в режиме реального времени – это движущаяся мишень, которая требует редакционных решений. Даже если ИИ-компании прячут голову в песок, это не изменится: не все решения в этой сфере способны удовлетворить всех и каждого. Даже позиция ChatGPT предоставлять информацию всесторонне, с позиции всех мнений – это тоже некая редакционная позиция✒️.

И все же внесенные в спецификацию ChatGPT изменения перевернули страницу этой истории. Дин Болл, научный сотрудник Центра Меркатус при Университете Джорджа Мейсона, предполагает, что возможность дать моделям больше свободы слова появилась, в частности, из-за их быстрого развития. Похоже, теперь за моделями, предоставляющими ответы практически на любые вопросы, будущее. Те же, кто так и продолжат решать за пользователя, безвозвратно устареют🏚️.