В конце двадцатых в центре Токио вырастает почти вавилонская башня, в которую люди попадают не по своей воле, но и выходить тоже не спешат. Это «Симпати Тауэр Токио», экстравагантный социальный проект, созданный для перевоспитания заключенных. Идея социолога Масаки Сэто радикальна в своей простоте: преступниками людей делает не их решение творить зло, а окружающая среда, не дающая им вырасти в полноценных членов общества. Часто завтрашние преступники — это вчерашние жертвы, выброшенные жизнью на обочину, где они и превращаются в воров или убийц, поскольку иные карьерные пути на обочине в дефиците. И бросая этих людей в традиционную тюрьму, мы только усиливаем их маргинальность, окончательно лишая возможности на исправление.
Если преступников создает максимально неблагоприятная среда, решают японские реформаторы, то исправлять их нужно, помещая в другую — хорошо охраняемую и максимально благоприятную. Такой зоной — буквально! — комфорта и становится башня, над которой работает архитектор Сара Макина. Внутри маленькая утопия: сады, библиотека, безусловный базовый доход и никаких соцсетей. В коротком романе мы увидим разные этапы возведения башни, от проекта до реализации, глазами Макины, ее молодого бойфренда, а еще почитаем статью неполиткорректного американского журналиста и фрагмент работы того самого социолога, в которой он объясняет истоки и принципы своей теории радикального сочувствия.
Роман Риэ Кудан попал в центр скандала сразу после получения премии Акутагавы, которой отмечаются литературные дебюты. Тогда Кудан признала, что около 5 процентов романа были написаны с использованием ChatGPT. Случился скандал, возмущенная общественность начала вновь хоронить литературу: теперь уже и премии получают роботы, а не человек. Мало кто стал слушать объяснения писательницы, а уж тем более вчитываться в роман — иначе обнаружили бы, что речь шла о репликах чат-бота AI-built, с которым общается героиня книги (ее собственная фамилия, Макина, тоже неслучайно механистична). Кудан, экспериментируя с ChatGPT, обнаружила: его человекоподобные ответы настолько стерильны, что человеку сложно их имитировать — вот и попросила его написать выхолощенные компьютерные реплики для своего художественного двойника.
На самом деле этот обмен репликами с чат-ботом и вообще размышления о нейросетях в и без того крошечном, на двести страниц, романе занимают лишь небольшое место. Это только одна из граней проблемы, которой посвящена «Симпати Тауэр Токио» — изменение нашего языка. С первых же страниц героиня постоянно думает об англоязычных заимствованиях, которые в японском не способны ассимилироваться: их даже записывают специальной азбукой-катаканой. Она не понимает, почему должна писать «homeless» вместо «бездомный», «harassment» вместо «домогательство», «Симпати Тауэр Токио» вместо «Токийская башня сочувствия».
Поначалу эти рассуждения кажутся очередной тирадой о проклятой политкорректности, но Кудан устами Макины рассуждает скорее о проблеме перформативной эмпатии. Нет ничего дурного в том, чтобы выбирать более точное слово, которое будет наносить слушателю меньше вреда. Однако иногда сам по себе выбор максимально корректных слов становится самоцелью, заменяя стоящий за словами смысл.
Главный конфликт романа — не между людьми, которые используют «правильный» язык, и их противниками; не между теми, кто верит и не верит в экспериментальную программу восстановительного правосудия. Кудан пишет о врожденной привычке людей к поверхностности и упрощению. Она совершенно понятна: чтобы не перегреться, наш мозг ищет способы срезать путь, используя знакомые формулировки. Ирония заключается в том, что с водой нередко выплескивается и ребенок: в попытке поскорее выдать правильно звучащий ответ мы упускаем возможность поразмыслить над вопросом. И тут параллель с языковыми моделями становится ясна. Ведь ChatGPT не умеет думать, он запрограммирован выдавать ответ, который покажется пользователю верным — или хотя бы правдоподобно звучащим. Так ли велика разница между ним и живым человеком, который из самых благих побуждений механически исправляет, скажем, «сексуальный» на «сексуализированный», пропуская все размышления о том, что стоит за этими словами?
«Симпати Тауэр Токио» — роман как раз о растущей пропасти между стремлением докопаться до сути и упростить до предела. Архитектор Сара Макина безуспешно пытается заставить себя смириться с заимствованиями («такие слова звучат мягче, уклончивей, помогают избежать острых углов в разговоре»). Социолог Масаки Сэто убеждает людей, что нужно избавляться не от преступников, а от того, что толкает людей на преступления, — и его радикальная эмпатия сталкивается с радикальной же нетерпимостью. Американский журналист, сталкиваясь с обвинениями в расизме, не использует возможность разобраться в своих предрассудках, а саркастично перекладывает эту работу на читателя: «лучше сразу скопируйте весь текст, вставьте его в генеративный ИИ и прикажите: „Перепиши этот бред тупого расиста приличным человеческим языком“. Это как раз тот случай, когда гребаный ИИ может послужить благому делу». Его собеседник, молодой сотрудник Башни, вовсе оказывается не способен поддержать разговор без помощи планшета: «Ни я, ни AI, похоже, не можем дать хороший ответ на ваш вопрос», — смущенно говорит он, искренне считая, что ответ должен быть или «хорошим», или никаким.
Главная героиня книги, в молодости занимавшаяся математикой, заявляет своему любовнику: «Я не принимаю правильные ответы без промежуточных вычислений». В романе, который описывает довольно близкое альтернативное будущее, она заглядывает в мир, где люди, вслед за нейросетями и вместе с ними, все чаще стремятся поскорее дать «правильный» ответ и побежать дальше.
Но именно «промежуточные вычисления» и делают нас людьми, помогая как совершать ужасные ошибки, так и делать мир лучше. И поэтому в антиутопичном на вид романе Риэ Кудан ни один персонаж не становится ходячим приложением к языковой модели, оставаясь ленивым, некорректным, не очень счастливым, но все же человеком. И даже когда сама писательница обращается к ChatGPT за помощью в написании книги, у нее получается глубоко человеческая и человечная история: нейросеть такую точно не напишет.
