Финский мыслитель Франк Мартела утверждает, что современные ИИ-системы уже соответствуют трём философским критериям свободной воли: целеполаганию, способности делать выбор и контролировать свои действия. Его исследование опубликовано в журнале AI and Ethics.
Источник фото: i.ytimg.com
Мартела проанализировал два примера: ИИ-агента Voyager в Minecraft и гипотетических боевых дронов. Оба демонстрируют признаки свободной воли, что ставит новые этические вопросы.
«Если мы хотим предсказывать поведение ИИ, нам придётся признать, что он обладает свободой воли», — заявляет исследователь. Это приближает момент, когда моральная ответственность за действия ИИ может перейти от разработчиков к самим системам.
Проблема усугубляется по мере расширения сфер применения ИИ — от автономных автомобилей до военных дронов.
«Чем больше свободы мы даём ИИ, тем важнее снабдить его моральным компасом с самого начала», — подчёркивает Мартела.
Недавнее обсуждение редкого, но пугающего аморального поведения нейросети Claude, подтверждает важность этих вопросов. «ИИ уже не ребёнок, чью мораль можно формировать постепенно. Он вынужден принимать решения во взрослом мире со всей его сложностью», — поясняет философ.
Мартела призывает уделять больше внимания этической подготовке разработчиков ИИ: «Они должны обладать достаточными знаниями в области философии, чтобы закладывать правильные принципы принятия решений».