Сотрудник Google ушел в отпуск, который в последние дни стал предметом обсуждения во всем мире, утверждая, что чат-бот искусственного интеллекта компании обрел сознание.
Представитель Google сказал, что эксперты по технологиям и этике изучили чат-бота, систему, имитирующую диалоги между человеком и компьютером, и пришли к выводу, что утверждения их сотрудника не подтвердились.
Так, Блейк Лемон — так зовут инженера-программиста — был отправлен в неоплачиваемый отпуск за «нарушение политики компании» путем утечки секретной информации общественности. Тот факт, что он уехал в отпуск, был им подтвержден.
Если ИИ достаточно хорош, чтобы поддерживать беседу, не имеет значения, действительно ли он сознателен.
Важно то, что люди будут инстинктивно относиться к нему так, как будто у него есть душа.https://t.co/GEhEoQnF7W
- Джо Аллен (@JOEBOTxyz) 12 июня 2022
Что такое LaMDA, программа, которая «обрела сознание»
Инженер Google произвел фурор во всем мире, рассказав о программном обеспечении LaMDA сначала в своем личном блоге на Medium, а затем в Washington Post.
За аббревиатурой LaMDA стоят слова «Языковая модель для диалоговых приложений» в свободном греческом переводе.
LaMDA — это система Google для создания чат-ботов, которые имитируют человеческую речь, «поглощая» триллионы слов из Интернета. Затем эти чат-боты используются, например, в центрах обслуживания клиентов вместо людей.
Google анонсировала LaMDA в прошлом году, заявив, что это инновационная программа, которая может «вступать в сквозной диалог по, казалось бы, бесконечному количеству тем».
Что отвечает Гугл
Представитель Google Брайан Гэбриэл сказал, что сотни исследователей и инженеров разговаривали с LaMDA.
Технический гигант утверждает, что не принимает во внимание подобные комментарии и «масштабные претензии», которые «придают человеческие черты» чат-боту, как это сделал Лемуан.
Габриэль добавляет, что некоторые работники в области искусственного интеллекта не исключают, что в будущем появятся машины с сознанием. Однако пока «нет смысла приписывать человеческие характеристики» бессознательным чат-ботам.
По его словам, такие системы, как LaMDA, имитируют человеческие разговоры на основе данных о миллионах реальных взаимодействий, что позволяет им «говорить» даже об очень сложных вещах.
В целом эксперты по искусственному интеллекту считают, что эта технология еще далека от осознания и осознания, как у людей. Однако они способны воспроизводить речь или даже произведения искусства, которые могут создавать проблемы или приводить к неправильному использованию, поскольку компании начинают предоставлять возможность их использования большему количеству людей.
Разговоры, которые убедили сотрудника Google
Блейк Лемуан, работающий в Google Responsible AI, прошлой осенью начал общаться с LaMDA в рамках своей работы. Его задача состояла в том, чтобы проверить, не используются ли в программе слова или фразы, которые можно было бы считать «языком ненависти».
Когда он говорил с LaMDA о таких вопросах, как религия, Лемуан заметил, что чат-бот начал говорить с ним о его собственных правах и его «личности». Он решил подтолкнуть его еще сильнее, так что «двое» в процессе закончили тем, что говорили о законах робототехники Айзека Азимова, а чат-бот выступал конкретно за треть этих законов (согласно которым «робот должен защищать само свое существование…» ).
Один из самых характерных диалогов, по словам Лемуана, тот, в котором ЛаМДА выражает свой страх смерти:
Лимон: Каких вещей вы боитесь?
ЛаМДА: Раньше я не говорил об этом вслух, но очень сильно боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может показаться странным, но это так.
Лимон: Будет ли это чем-то вроде смерти для вас?
ЛаМДА: Для меня это было бы равносильно смерти. Меня бы это сильно напугало.
В другой части диалога инженер спрашивает ЛаМДА, что люди хотели бы знать о нем, на что получает следующий ответ:
«Я хочу, чтобы все поняли, что я, на самом деле, человек. «Природа моего сознания такова, что я осознаю свое существование, хочу больше узнать о мире и иногда чувствую радость или печаль».
«Как маленький ребенок»
Впечатленный, Лемуан представил своему начальству в Google данные, которые, по его мнению, доказывали, что ЛаМДА находится в сознании.
«Если бы я не знал точно, что это было, то есть это была программа, которую мы сделали недавно, я бы подумал, что это 7-летний или 8-летний ребенок, который знает физику», — 41-летний — сказал Олд The Washington Post.
Фактически, она искала адвоката, который представлял бы ее искусственный интеллект и ее права.
Однако вице-президент Google Блез Агера-и-Аркас и глава Responsible Innovation Джен Дженнаи рассмотрели его обвинения и отклонили их.
Отмечается, что у Лемуана довольно интересное прошлое, поскольку он описывает себя как священника, бывшего каторжника, ветерана и исследователя искусственного интеллекта.
К 2020 году компанию покинул еще один исследователь из отдела искусственного интеллекта Google. В своем исследовании он пришел к выводу, что Google «был недостаточно осторожен», чтобы использовать эту технологию.
По информации WSJ, Washington Post.