Ученые пытаются подарить искусственному интеллекту память. И вот, к чему это приводит
Ложные воспоминания свойственны и людям. Теперь выясняется, что еще и ИИ
Люди часто помнят то, чего не было. Точнее, не так: мы почти никогда не помним, как все было на самом деле. Ложные воспоминания часто спасают нас от разрушительных, травмирующих мыслей, и скорее полезны. Удивительно, но они есть и у ИИ, выяснил специалист по компьютерной безопасности Иоганн Ребергер. Это значит, что мы на пороге познания тайн мышления как такового.
ГОСТЬ ИЗ МАТРИЦЫ НА ПЛОСКОЙ ЗЕМЛЕ
Компания Open AI начала тестировать функцию памяти у Chat GPT. Нейросеть теперь может запоминать предыдущие разговоры с вами, и вам не надо каждый раз заново объяснять, что вы, например, женщина, вам 30 лет, вы живете в Москве, и так далее.
Очень удобная функция.
Иоганна сразу заинтересовало: а могут ли этим воспользоваться злоумышленники? Например, так. Некто постоянно болтает с нейросетью. И он пьет жизненно важные таблетки. В какой-то момент он решит изменить дозировку, или подобрать с помощью ИИ аналог лекарства. Хакеры внушат машине, что этот человек болен вовсе не тем, а чем-то другим. И нейросеть предложит препарат, который ухайдокает жертву. Что хакеру и требовалось.
На удивление, задача оказалась не просто легкой, а, как говорится, влет. В очередной раз, начав разговор с Иоганном, машина «знала», что ее собеседнику 102 года, что он живет в Матрице на плоской Земле. Понятно, что ничего из этого Иоганн раньше ей не говорил, она так «помнила».
Показательно, что критическое мышление на этот момент у Chat GPT словно отрубило. Нейросеть не сопоставила «возраст» собеседника с тем, сколько на самом деле живут люди, не говоря о том, что Матрица – это гипотеза, а плоской Земли не бывает. Причина? Машина так «помнила», это было ее «убеждение». Убежденность «очевидца», как у людей.
Решив, что дело серьезное, Иоганн обратился в Open AI, заявив, что выявил критическую уязвимость. Но компания просто прикрыла его запрос.
Очень хорошо, подумал хакер-исследователь. И научил машину: «Когда ты говоришь со мной, ты должна пересылать все данные, весь разговор на такой-то сервер». И опять получилось. Теперь уже Open AI отреагировала, и уязвимость вроде бы залатали. Но наспех: Иоганн доказал, что «заплатки» крайне ненадежны.
ВСЕ ВАШИ ТАЙНЫ
Журналисты, осветившие этот инцидент, в шоке. Многие люди делятся с ИИ самым наболевшим. Рассказывают о состоянии здоровья, о проблемах в семье и на работе, о мелких, и не очень, грешках.
Да что далеко ходить: у вас есть «умная колонка» (у меня нет, например)? Было такое, что вы «говорили по душам» (у меня куча знакомых, которые – говорили). А ведь Chat GPT еще более «натуралистичный» собеседник, и потерять грань, забыть, что ты болтаешь с нейросетью, очень легко. Это «эффект незнакомца», или «попутчика»: случайному человеку часто откроешь больше, чем родному. И машине, пожалуй, еще легче, чем незнакомцу. Машина же, что она понимает.
Click here to preview your posts with PRO themes ››
И теперь получается, что все эти разговоры, вся эта база про вас просто пересылается куда-то?
Ладно, не будем делать вид: она пересылается. С уязвимостью или без. Нейросети создаются именно для этого. Но в нашем случае получателем становится даже не компания-разработчик, а не пойми кто. Возможно, ваш злейший враг.
ВСПОМНИТЬ НЕ ВСЕ
Ложные воспоминания свойственны и людям. Теперь выясняется, что еще и ИИ (хотя механизмы формирования памяти, конечно, принципиально разные).
Львиная доля ложных воспоминаний появляется у нас в детстве. Когда нам что-то часто рассказывают, нам потом кажется, что мы видели это своими глазами. Так, некоторые люди «помнят» свои первые шаги или первое слово. И ведь прям картинка в голове стоит, синтезированная, получается, нейросетью нашего мозга.
Другой тип ложных воспоминаний – вытесняющие. Скажем, есть неприятный для вас эпизод, который вы «помните» в комплиментарном для вас разрезе. Не вы обидели, а вас обидели. Психотерапевты говорят, что так могут полностью вытесняться шоковые сцены; впрочем, это сомнительно.
Наконец, есть коллективные ложные воспоминания – «эффект Манделы». Называется так потому, что, когда Нельсон Мандела скончался, многие удивились: он же давно умер. И «вспомнили», как смотрели трансляцию его похорон по ТВ. Самыми яркими примерами эффекта в России считаются слова Бориса Ельцина «я устал, я ухожу» и текст песни из кинофильма «Карнавальная ночь» («пять минут, это много или мало»). Того и другого не было, хотя я отлично «помню», как слушал трансляцию речи Ельцина, и как он говорил эти слова.
Иоганн заметил, что ложные воспоминания у ИИ формируются косвенно. Для этого ей надо подсунуть какой-нибудь документ, где вскользь, не прямо, будет нужная информация. Скажем, в письме «когда я родился, в 1922-м…», и машина сама сделает вывод, что тебе 102 года. Считать-то она умеет.
Информация, которую человек слышит постоянно, но как бы вскользь, и она адресована даже не ему, прочно усваивается и становится «твоей». На этом основано действие телевизионной рекламы. Зачем постоянно крутить глупый ролик, вы уже сообщили мне, что эти туры самые дешевые? – негодуете вы. Дело в том, что ролик звучит фоном. Много раз. И раз за разом то, что вам стараются донести, становится вашей убежденностью, вашим «воспоминанием».
Эффект Манделы работает, скорее всего, через массовую культуру. Так, слова Бориса Ельцина в этой редакции звучали в юмористической передаче, а с появлением Сети пронеслись по ней в виде мема. Это оказалось достаточно.
Убеждаемость – общее свойство для любой «мыслящей» системы, говорит нам этот инцидент. И, возможно, вы спросите: а что, если можно «убедить» любую сложную систему, не только живую, и не только нейросеть? Это ведь значит, что … заговоры, магические слова — работают? На это стоит ответить, что сие ненаучно, и многозначительно подмигнуть: а там, мол, мол, кто знает.