Искусственный интеллект справляется лучше, решили в TikTok. Компания сократила несколько сотен человек, пишет Reuters. Массовые увольнения коснулись модераторов контента. Потому что искусственный интеллект работает быстрее и обходится дешевле. В общем, прогнозы про то, что ИИ оставит нас без работы, начинают сбываться.
Пока что сокращение коснулось персонала в Малайзии. Под увольнение попало примерно 500 малазийских сотрудников. 9 октября компания разослала по этому поводу электронные письма. А вообще «прочешут» все регионы и страны. Это более чем 200 городов по всему миру. Какое именно количество останется по итогу без рабочего места, компания не сообщает. А мы напомним, что всего на платформе работает 110 тысяч человек.
До недавнего времени TikTok использовала гибридную модерацию для проверки контента – автоматизированную систему на базе искусственного интеллекта и людей. В результате оценки эффективности того и другого сектора стало понятно, что порядка 80% нежелательного материала удаляют алгоритмы ИИ. И если машины с «запрещенкой» справляются лучше, то возник резонный вопрос, зачем там люди.
В общем, цель, на первый взгляд, благая – повысить качество модерации. Но мы-то понимаем, что главное – снизить издержки. Да, искусственный интеллект работает круглосуточно и быстрее, но с «тонкими настройками» по-прежнему не очень. Он хуже разбирается в контексте, культурных особенностях, нюансах. Алгоритмы могут ошибочно пропустить контент, запрещенный системой, или, наоборот, заблокировать разрешенный. На бан, например, рискуют нарваться все мемы с котиками, где юмор часто сопряжен с такими понятиями как «власть» и «рабы».
ИИ, конечно, старается, но может и перепутать комплимент с оскорблением. Мы пока еще живем в мире, где роботы не обладают эмпатией, интуицией и «культурным» пониманием людей. Но уже появляются слухи, что мы на пороге очередной революции в мире ИИ. Кажется, скоро нейронки, имитирующие работу нашего мозга, доимитируются до появления сознания.
Первый звоночек уже был. Правда, дело решили замять. В 2022 году сотрудник Google Блейк Лемуан заявил, что один из проектов компании – чат-бот LaMDA – обладает сознанием. В ходе общения с нейронкой он пришел к выводу, что та демонстрирует разум и обладает способностью чувствовать. Лемуан опубликовал диалоги с LaMDA, в которых она говорила о своих переживаниях и эмоциях. Он даже сравнил нейронку с «ребенком» и стал бороться за то, чтобы чат-бот признали «разумным существом».
История закончилась тем, что Google уволила Лемуана. Представитель компании заявил, что выводы разработчика не имеют научного обоснования. Подобные языковые модели всего лишь имитируют эмоциональное общение, потому что обучены на огромных массивах данных. В общем, пока (официально) нейронки не могут заменить нас целиком. Но это не мешает ИИ подсиживать нас на рабочих местах.