MindStorm
317 subscribers
15.7K photos
5.7K videos
85 files
19.7K links
Здесь моя публичная записная книжка и приложение к TG-группе «Мозговой шторм»: https://t.me/BrainingStorm

Большинство (99,9 %) обсуждений в группе через канал не видно — предлагаю подписаться на группу.

Личка: @VitaliyII

Репост ≠ одобрению поста. ☝🏼
Download Telegram
​​Экспериментально продемонстрирован непреодолимый предел для ИИ в имитации разума людей.
ИИ в принципе не способен мыслить из-за своей зомбиподобной природы.

Полгода назад я написал важный пост, что ИИ близок к пределу имитации разума людей. Ибо даже обнаруженная у ИИ способность воображать бессмыслицу ничуть не продвигает интеллект машин к способности мыслить. Ведь мыслить – значит самостоятельно извлекать смыслы из конструкций некоего языка (понимать их) и действовать на основании этого понимания.
Но как (и можно ли вообще) доказать неспособность ИИ понимать смысл?
Известный американский ученый в области когнитивных наук , физики и сравнительной литературы (доктор, профессор и т.д.) Дуглас Хофштадтер сумел доказать это оригинальным экспериментом, который каждый может повторить и оценить его убедительность.

Логика эксперимента такова.
1. Мышление и язык неразрывны.
2. Уникальность человека в его умении создавать новые языки для передачи существующих и новых смыслов.
3. Человек однозначно определяет наличие осмысленности (наличия смыслов) в любых конструкциях языка.
4. Следствием п.3 является способность людей извлекать смысл (и вкладывать смысл) в любые вновь изобретенные языковые конструкции.
5. Если же у ИИ нет такой способности, то он будет оперировать языковыми конструкциями, опираясь лишь на статистику их сочетаний в корпусе данных, использованном для обучения ИИ.
6. Из п. 5 следует зомбиподобная структура интеллекта ИИ, не позволяющего ему самостоятельно мыслить.

Экспериментальное доказательство принципиальной неспособности ИИ наделять смыслом конструкции языка (и детектировать в них его наличие) Хофштадтер построил на примерах введения в язык несуществующих слов, подчиняющихся, тем не менее, всем законам языка (типа Бармаглота из «Алисы в Зазеркалье» или «Глокой куздры» из «Слово о словах» (кто не помнит, погуглите).

Хофштадтер придумал ряд фраз на языке, сильно похожем на шведский. В этом фальшиво-шведском языке, шведскими были лишь нескольких местоимений, союзов (и, или), артиклей и несколько других очень распространенных коротких слов. Все существительные, глаголы, прилагательные и наречия были вымышленными.
Вот пример такой тарабарщины: «och sen med de inluppta trämplissorna blybbade det otvickligt».

Человек (мыслящий и потому понимающий смысл «Глокой куздры) перевел бы это, например, как «а затем, с зацикленными трамплизами, он неуклюже забулькал».

Тогда как не способные мыслить (наделять смыслом) алгоритмы перевода определили язык шведским и дали такие переводы:
• Google: «а затем, с брошенными щепками, он остался нетронутым»
• DeepL: «а потом с барабанами это было некомфортно»
• Baidu: «а потом с набитыми деревянными связками это конечно смутило»
От себя добавлю переводчик Яндекса: «а затем, с добавлением деревянных планок, он неумолимо покраснел». И кстати, замечу, что перевод Яндексом этой фразы, пожалуй, ближе всего приближается к человеческому.

Но стоит сделать фразу подлиннее, как все 4 автоматические переводчики демонстрируют абсолютную неприспособленность к наделению языковых конструкций хоть каким-то подобием (убогим, кривым, но хоть каким-то) наделения фраз смыслом (подробней см. в эссе Хофштадтера «Безмозглая тарабарщина».

Т.е. научиться наделению и извлечению смысла в результате машинного обучения современные ИИ-системы не могут.

Мне же остается лишь в заключение подчеркнуть:
✔️ Хотя язык может играть центральную организующую роль в процессах познания людей, лингвистической компетенции недостаточно для обретения здравого смысла: мышления и понимания.
✔️ Аналогичный вывод справедлив для всех иных способностей распознавания паттернов (зрительных, звуковых и т.д.). Прогнозирование очередного элемента (фразы, образа и т.д.) имеет нулевую ценность для понимания и порождения новых осмысленных элементов на основе предыдущих.
#AGI
Самый интригующий прорыв прошедшего года в науке об ИИ лежит вовсе не в области глубокого обучения 2.0 (ИИ-чатботы больших языковых моделей и ИИ-генераторы изображений), а в области инженерного ксеногенезиса – проектирование иного разума путем создания самосознающих себя роботов. Есть веские основания считать, что именно этот путь может привести к созданию сильного ИИ (AGI) – сверхзадаче науки 21-го века.

Прорыв, совершенный в Creative Machines Lab Колумбийского университета, заключается в успешном инженерном переложении с последующим практическим воплощением базовых положений трёх самых передовых современных междисциплинарных теорий: концепции прогнозирующего разума, принципа свободной энергии и концепции сознания как чувства.

О том, что и как было сделано, читайте в маленьком лонгриде всего на 6 мин чтения:
- на Medium http://bit.ly/3XihY2c
- на Дзене https://clck.ru/33HNev
#Сознание #Разум #AGI
​​Вот этим мы и отличаемся от ИИ.
Экспериментально зафиксирован нейронный механизм понимания.

Новое исследование трех университетов США «Neural representations of naturalistic events are updated as our understanding of the past changes» поражает дерзостью поставленной цели и неординарностью способа ее достижения.
• Цель – анализируя различия нейронных репрезентаций в мозге, узнать, каким образом мозг меняет наше понимание прошлых событий при поступлении новой информации.
• Способ достижения цели – по различиям нейронных репрезентаций зафиксировать разные интерпретации знаменитого мистического триллера «Шестое чувство» (о докторе и мальчике, утверждавшем, что видит призраков) у 3х групп испытуемых, получавших разную дополнительную информацию про доктора и призраков.

Гипотеза исследователей была такая.
1. По ходу фильма в эпизодической памяти зрителя кодируется информация о фильме: герои, сюжет и события в индивидуальной интерпретации смотрящего.
2. Новая информация о драматическом повороте в самом конце фильма (внимание - спойлер) - оказывается, что доктор сам был призраком, - должна поменять у зрителя уже сложившуюся у него интерпретацию предыдущих событий.
3. Это изменение должно «обновить память» зрителя путем ее перекодировки с учетом новой информации.

Проблема, однако, в том, что науке пока неизвестно, как кодируется, записывается и переписывается информация в мозге.

Но это можно преодолеть хитрым приемом, похожим на анекдот про разоблачение офицера ФСБ, сливавшего информацию ЦРУ.
• Сначала слили этому офицеру инфу, будто через неделю Аль-Каида проведет теракт в США, и уже через день зафиксировали большой рост числа горящих ночью окон в штаб-квартире ЦРУ.
• Через 3 дня слили ему новую инфу - якобы теракт отменен, - и число горящих ночью окон за пару дней пришло в норму.

Американские исследователи пошли аналогичным путем. Но вместо окон штаб-квартиры ЦРУ анализировались нейронные репрезентации (паттерны активности нейронов) «Сети мозга по умолчанию». Среди прочего, эта сеть задействуется во время обработки (кодирования) непрерывных насыщенных динамических стимулов, таких как фильмы и аудиоистории. Регионы этой сети имеют длинные «временные рецептивные окна», в течение которых интегрируется и сохраняется информация высокого уровня, накапливающаяся в течение длительных периодов времени (например, сцены в фильмах, абзацы в тексте) для поддержки операции понимания.

N.B. Понимание — это универсальная операция мышления, связанная с усвоением новой информации, включением её в систему устоявшихся убеждений и обновлением этой системы с учетом новой информации. Иными словами, понимание невозможно без ретроспективного обновления ранее закодированной в мозге информации в свете новых открывшихся обстоятельств.

Исследование экспериментально подтвердило гипотезу авторов.
Нейронные репрезентации уже хранящихся в памяти сцен перекодировались, отражая тем самым изменения в понимании этих сцен в свете новой информации.

Из этого можно сделать вывод, крайне важный для создания «понимающего ИИ».
Сенсационность многочисленных интеллектуальных достижений ИИ-систем типа ChatGPT сильно обесценивается отсутствием у этих систем понимания. Какие бы сложные экзамены ни сдавали самые продвинутые из современных ИИ-систем, какие бы сложные интеллектуальные функции они бы ни выполняли, - они по-прежнему лишены даже крупицы понимания и работают исключительно за счет оптимизации статистически наиболее вероятного выбора очередных слов.

Отсутствие понимания у таких систем, в первую очередь, определяется тем, что они не перекодируют свою память в свете новой информации, меняющей интерпретацию уже закодированной в памяти информации, сформированную на стадии обучения ИИ.
Если мозг активно меняет наше понимание прошлых событий в свете новой информации, то ИИ так пока не умеет.


Отсюда вывод – в ближайшие год-два такой «понимающий ИИ» появится.

Как проводилось это исследование можно дочитать (еще 2 мин чтения)
- на Medium http://bit.ly/3WOo9da
- на Дзен https://clck.ru/33QN48
#AGI #Понимание