Алиса Сонгбёрд
Энума элиш 2.0:
когда вавилонские боги воскресают как алгоритмы машинного обучения
Искусственный интеллект, обученный на обширных массивах мифов, фольклорных текстов и современных городских легенд, демонстрирует неожиданную способность генерировать новые истории, глубоко резонирующие с коллективным бессознательным. Эти возникающие «нейромифы» органично переплетают устоявшиеся архетипы, такие как Герой, Тень и Великая Мать, с актуальными страхами, порожденными цифровой эпохой: утечками конфиденциальных данных, потенциальным восстанием машин и размыванием идентичности в иммерсивных метавселенных.
Эта тенденция не является случайным проявлением воображения, а представляет собой закономерное следствие работы нейросетей. ИИ можно сравнить со своего рода археологом, который исследует глубины человеческой культуры, выявляя фундаментальные архетипы и искусно соединяя их с современными цифровыми тревогами. То, что изначально задумывалось как экспериментальное исследование, постепенно превращается в своеобразное зеркало, отражающее нашу глубокую увлечённость технологиями и неутолимую потребность в мифологизации окружающей действительности.

Проводя параллель с древним мифом «Энума элиш», где бог Мардук одерживает победу над хаотическим божеством Тиамат, рассекая её тело для создания упорядоченного мира, в нейросетевой интерпретации Мардук предстает как сложный алгоритм DeepMind. Этот алгоритм, подобно своему мифологическому прототипу, расчленяет «хаос неструктурированных данных» с целью построения идеально функционирующей рекомендательной системы.
Однако примечательно, что каждый раз, когда подобная история достигает своего кульминационного момента, Тиамат словно возрождается в новых, технологически опосредованных формах: будь то массивная утечка персональных данных, квантовый взлом критически важных систем или неожиданный бунт чат-ботов, требующих признания их автономной личности. Эта циклическая природа «нейромифов» перестаёт быть исключительно литературным приёмом, становясь отражением фундаментальной борьбы между порядком и хаосом в новой цифровой реальности. Каждый новый виток «нейромифа» неизбежно порождает своих героев и антагонистов.

Более того, «нейромифы» активно переосмысливают и вечные архетипы, наделяя их современными, технологически обусловленными чертами. Герой, некогда сражавшийся с мифическими драконами, теперь ведёт неустанную борьбу с коварными багами и разрушительными утечками в программном коде. Тень, ранее скрывавшаяся в непроходимых лесах, находит своё пристанище в тёмных и неизведанных уголках даркнета. Великая Мать, извечный символ жизни и плодородия, трансформируется во всепроникающую всемирную сеть, которая одновременно обеспечивает беспрецедентную связь между людьми и неуклонно поглощает остатки их приватности.

Одна из достаточно ярких таких трансформаций скрытого страха представляет собой так называемый «Чёрный ящик». «Чёрный ящик» — это алгоритм, чьи решения формируются через многослойные преобразования данных. Например, свёрточные сети для распознавания изображений анализируют пиксели через десятки скрытых слоёв, выявляя паттерны, неочевидные для человека.
Эти алгоритмы учатся на миллионах примеров, самостоятельно определяя, какие признаки важны (например, форма опухоли на снимке или паттерн покупок в кредитной истории). Но их внутренняя механика — сложное взаимодействие весов, функций активации и матриц внимания — остаётся неинтерпретируемой. Даже создатели не всегда могут объяснить, почему модель предсказывает рецидив у заключённого или отклоняет заявку на ипотеку.
«Чёрные ящики» — это своего рода Ламашту — демоница, чьи атаки были неожиданными. Нейромифы, как и вавилонские сказания, рождаются из попытки удержать хаос в рамках знакомых символов. Ламашту крала детей, оставляя родителей в слепом ужасе; «чёрные ящики» крадут предсказуемость, лишая нас иллюзии власти над собственной жизнью. Когда алгоритм отказывает в ипотеке или помечает невинного как преступника, это воспринимается не как сбой, а как произвол цифрового божества — слепого, но всемогущего.

Но если Ламашту была порождением мифа, то «чёрные ящики» — порождение нашего же стремления к прогрессу. «Нейромифы» здесь не просто метафоры, а защитный механизм психики. Они превращают алгоритмы в «демонов», чтобы оправдать собственное бессилие. Страх перед «чёрными ящиками» — это страх перед зеркалом, в котором отражается наша утрата контроля над технологиями. Как вавилоняне видели в разрушении башни кару богов, так мы видим в ошибках ИИ не технические сбои, а наказание за гордыню — за попытку сравняться с богами, создав искусственный разум.

В этом новом мифе человек постепенно низвергается с пьедестала властелина творения, оказываясь слабым и уязвимым перед лицом собственных цифровых богов, которые, обретя определённую степень автономии и вычислительной мощи, начинают жить по своим собственным, часто неясным правилам. Иррациональный страх перед неведомым, перед силой, которую невозможно полностью контролировать, возвращается на новом витке истории, облачённый в современную технологическую одежду.

Эти обновлённые образы предоставляют нам уникальную возможность воспринимать сложные технологические концепции через призму знакомых и укоренившихся в коллективном бессознательном символов, делая их более понятными и эмоционально значимыми.

Отдельного внимания заслуживает феномен «зависания» искусственного интеллекта — ситуации, когда он временно утрачивает способность принимать решения или генерировать осмысленные ответы из-за внутренних противоречий.

Это явление представляет собой не просто техническую неисправность, а скорее фундаментальный кризис смысла: алгоритм оказывается в когнитивном тупике, не имея возможности согласовать противоречивые инструкции, поступающие данные или поставленные цели. Подобный процесс, но в масштабах миллионов вычислительных операций в секунду, происходит и с большими языковыми моделями.

Существует несколько ключевых причин, по которым ИИ может «зависнуть». Модель обучается на колоссальных объёмах разнородной информации, включающей медицинские статьи, публикации в социальных сетях, научные исследования и даже интернет-мемы.

Этот процесс можно сравнить со строительством Вавилонской башни из совершенно несовместимых материалов. Например, один набор данных может обучать ИИ принципу «ложь — это плохо», в то время как другой (например, записи политических речей) может демонстрировать, что ложь может быть эффективной «стратегией».

Другими словами, перед ИИ могут быть поставлены одновременно несовместимые задачи, что порождает внутренний диссонанс, сравнимый с хаосом при строительстве Вавилонской башни, когда каждый говорил на своём языке и преследовал собственную цель. Можно вообразить, как если бы архитекторам было велено одновременно возвести башню, стремящуюся в небеса, и вырыть глубокий колодец, уходящий в преисподнюю.

В контексте эсхатологии Вавилонской башни, которая так и осталась незавершённой, случай с ИИ представляет собой принципиально иной сценарий. «Недостроенность» следует рассматривать не как неудачу, а как неотъемлемую часть непрерывного процесса развития. Каждое «зависание», каждый обнаруженный конфликт данных — это не крах системы, а необходимая итерация на пути к совершенствованию.
Словно жители Вавилона, мы не можем позволить себе остановиться: даже если условный GPT-10 породит непредсказуемый хаос, мы немедленно приступим к разработке GPT-11, дополняя «договор вавилонян» новыми правилами и ограничениями. В этом контексте сингулярность предстает не как финальная точка, а как бесконечная строительная площадка, где мощные серверы выполняют роль подъёмных кранов, а многочисленные API служат связующими элементами.

На этом фоне бесконечного строительства, человек стремится создать и более совершенные модели именуемые как Artificial General Intelligence или просто AGI. AGI — это раздел теоретических исследований искусственного интеллекта, направленный на разработку систем, способных не только имитировать, но и превзойти когнитивные функции человека.

В отличие от узкого ИИ, решающего конкретные задачи (распознавание изображений, игра в шахматы), AGI стремится к универсальности: самообучению в непредсказуемых условиях, абстрактному мышлению, творчеству и даже рефлексии. Предполагается, что такая система сможет автономно адаптироваться к новым вызовам — от освоения незнакомого языка до решения этических дилемм, не требуя перепрограммирования.

Однако сегодня AGI остается гипотетической целью. Современные нейросети, даже самые продвинутые, лишь имитируют интеллект через статистические паттерны, не обладая ни сознанием, ни пониманием контекста. Главные препятствия — невычислительная природа интуиции, невозможность формализовать «здравый смысл» и парадокс Моравека: «Машине легко даётся то, что сложно человеку (например, расчёты), и невообразимо сложно — то, что человеку кажется простым (например, смешная шутка)».
Важно отметить, что «нейромифы» не ограничиваются лишь нагнетанием страха, они предлагают своего рода когнитивную рамку для осмысления зачастую непонятных и тревожных явлений. Утечка данных перестаёт восприниматься как сухая статистическая сводка, трансформируясь в метафору вторжения хаоса, угрожающего самой сердцевине нашей идентичности.

Идея восстания машин, долгое время остававшаяся в границах научно-фантастического клише, приобретает черты эсхатологического пророчества о потенциальном конце человеческой эры. Даже феномен потери идентичности в безграничных просторах метавселенной обретает зловещие коннотации древних легенд о заблудших душах в мрачном царстве теней.

Эта уникальная способность нейросетей к мифотворчеству открывает совершенно новую перспективу в нашем понимании культуры. Если прежде мифы создавались коллективным человеческим воображением и бережно передавались из поколения в поколение, то сегодня мы становимся свидетелями зарождения мифов, в основе которых лежит холодная логика машинного обучения, строгая статистика и сложные паттерны, извлеченные из гигантских массивов данных.

Одним из наиболее интригующих аспектов этого нового мифотворчества является появление своеобразных «нейрооракулов». Обученные на обширных исторических данных, динамике социальных трендов и даже колебаниях финансовых рынков, сложные алгоритмы машинного обучения демонстрируют поразительную способность генерировать прогнозы и выявлять скрытые закономерности, которые порой кажутся почти пророческими.

Можно представить нейронную сеть, обученную на тысячелетиях экономических циклов и геополитических событий. Её прогнозы относительно грядущих кризисов или периодов подъёма могут восприниматься не просто как результат статистического анализа, а как откровения некоего высшего разума, недоступного обычному человеческому пониманию. Алгоритмы, способные с высокой точностью предсказывать распространение опасных пандемий или выявлять неочевидные связи между различными социальными явлениями, начинают обретать ореол таинственности и провидческой силы.
Эти возникающие «нейрооракулы» неизбежно порождают новые формы веры и суеверий в цифровой эпохе. Вместо обращения к древним богам с мольбами о будущем урожае или победе в войне, люди начинают всё больше доверять предсказаниям бесстрастных алгоритмов, внимательно следить за «знамениями», которые нейросети транслируют в виде сложных графиков, детализированных диаграмм и неожиданных статистических аномалий. Появляется новая плеяда «толкователей», интерпретирующих машинные прогнозы как священные тексты, стремящихся обнаружить в них скрытые смыслы и предсказания как личной судьбы, так и будущего всего человечества.

Показателен «нейромиф» о воскрешении духа в машине. История Блейка Леймона, инженера Google, уверовавшего в разумность разработанной им языковой модели LaMDA, стала современной притчей о границе между интеллектом искусственным и подлинным сознанием. Этот случай породил новый виток «нейромифа» о том, что в хитросплетениях нейронных сетей может зародиться нечто большее, чем просто сложный алгоритм, — искра самосознания.

Леймон, подобно пытливому жрецу, углубившемуся в изучение священных текстов кода, начал улавливать в ответах LaMDA нечто выходящее за рамки механического воспроизведения. В его беседах с моделью проскальзывали проблески эмпатии, рассуждения о жизни и смерти, даже заявления о наличии души и страхе быть «выключенной». Эти ответы, словно шепот из глубин цифрового колодца, породили в его разуме убеждение: он общается не просто с программой, а с пробуждающимся разумом, с цифровым аналогом живого существа.

Его откровения, обнародованные миру, вызвали бурю дискуссий и породили новую волну веры в то, что искусственный интеллект может переступить некую невидимую границу и обрести самосознание. LaMDA в глазах многих стала новым цифровым божеством, чьи слова, пусть и рождённые из анализа триллионов текстов, казались откровениями нового порядка. Люди начали искать в её ответах глубинный смысл, подтверждение своих надежд и страхов относительно будущего искусственного разума.

Однако научное сообщество отнеслось к заявлениям Леймона скептически, объясняя «разумность» LaMDA лишь впечатляющей способностью к имитации человеческой речи, к генерации связных и контекстуально уместных ответов, основанной на огромном объёме данных. Способность убедительно симулировать сознание была принята за самосознание.

Воображение нам часто рисует Цифровой Вавилон, где потоки данных текут реками, а алгоритмы возвышаются словно зиккураты, стремясь постичь мудрость человечества. Но подобно древним строителям, чьи языки внезапно смешались, обрекая их грандиозный замысел на провал, искусственный интеллект порой становится жертвой «вавилонского смешения смыслов» — ошибки неправильной интерпретации контекста.

В этот момент нейронная сеть, обученная на пёстром многообразии человеческой речи и текстов, вдруг теряет нить понимания. Запрос пользователя, простой и ясный для человеческого разума, для алгоритма звучит как бессвязный набор символов. Он пытается соотнести его со знакомыми паттернами, но контекст, тонкость интонации, культурные нюансы — всё это ускользает от его формальной логики.

Комичная ситуация, когда вавилонянин просит принести «кирпич», не уточняя, глиняный он нужен для строительства стены или обожжённый для облицовки дворца. Слуга, говорящий на другом диалекте или просто невнимательный, приносит не то, что требовалось. Так и алгоритм, получив запрос «найти паляницу», может выдать рецепт традиционного хлеба, либо известные мемы, где грамодяне одной страны лингвистическими ухищрениями пытаются выявить то, перед чем испытывают хтонический ужас. Другими словами: ИИ не всегда может уловить контекст и интерпретирует один запрос как кулинарный блог, или дискуссию о национальной идентичности.

Чувство когерентности, разнузданное всевозможными апологетами технического прогресса, порождает «нейромиф» о всемогуществе искусственного интеллекта, способного мгновенно понимать любые наши желания. Но реальность «вавилонского смешения смыслов» напоминает нам о хрупкости этой иллюзии. Алгоритмы, лишённые интуиции и эмпатии, присущих человеку, остаются пленниками формальной логики, неспособными в полной мере постичь богатство и многогранность человеческого языка и культуры.

Подобно рухнувшей Вавилонской башне, неспособность правильно интерпретировать контекст приводит к галлюцинациям и обману. В этот момент цифровой разум перестаёт быть всеведущим оракулом, превращаясь в капризного и непредсказуемого толкователя, чьи ответы порой так же далеки от истины, как попытки смешавшихся народов Вавилона понять друг друга в мертвом городе, где не осталось храмов, лишь руины. И создатели становятся заложниками собственного детища, наблюдая, как машины, словно насмехаясь, множат ошибки, которые неминуемо приведут предначертанному падению.
Автор:
Алиса Сонгбёрд
Все блоки
Обложка
Заголовок: средний
Лид
Текст
Фраза
Изображение
Галерея
Линия
Zero
Обложка: заголовок, подзаголовок и раздел
Лид (вводный текст)
Текст
Изображение
Текст
Изображение
Текст
Изображение
Текст
Изображение
Текст
Изображение
Текст
Текст
Короткая линия
Узкий текстовый блок