Мистификация года! «Человечество живет в эпоху гипнократии — новой формы манипуляции посредством историй, которые потребляют люди в медиапространстве» — это идея недавно опубликованной книги философа Цзяньвэй Сюня, которой посвящали рецензии уважаемые издания и обсуждали на круглых столах исследователи демократии. И все это время автор громкого проекта был в тени, пока не выяснилось, что Цзяньвэй Сюнь — вовсе не китайский мыслитель, а искусственный интеллект. Разразившийся скандал заставил вновь задуматься о возможностях ИИ и уязвимости современного общества перед фейками. Собака.ru коротко пересказала удивительную историю книги, а также расспросила философов и специалистов по машинному обучению о значении этого кейса.
«Важнейшая книга для понимания того, как сегодня контроль над обществом осуществляется не путем подавления истины, а с помощью уничтожения [альтернативных] повествований», — так издательство Tlon анонсировало вышедшее в декабре 2024 года сочинение гонконгского философа Цзяньвэй Сюня.
Труд, получивший название «Гипнократия: Трамп, Маск и новая архитектура реальности», быстро стал феноменом, который стали обсуждать на больших конференциях о развитии демократии и современных обществ.
Однако в апреле 2024 года Сабина Минарди, главный редактор итальянского издания L'Espresso обнаружила, что никакого Цзяньвэй Сюня никогда не существовало. Во всяком случае, это не человек. После многочисленных попыток взять у философа интервью журналистка выяснила, что книга была составлена эссеистом Андреа Коламедичи, который генерировал текст с помощью искусственного интеллекта.
Открытие вызвало грандиозный скандал, особенно с учетом того, что в прошлом году в ЕС приняли закон, обязывающий маркировать контент, созданный с помощью ИИ. В интервью El Pais Коламедичи заявил, что целью создания этой мистификации было «создание философского эксперимента и художественного представления, призванного подчеркнуть риски и опасности использования искусственного интеллекта».
В итоге новости о раскрытии обмана привлекли к книге едва ли не больше внимания, чем предыдущий успех. Цзяньвэй Сюнь даже дал интервью в своем новом качестве «узла в сети взаимоотношений между человеческим и искусственным интеллектом». А в прессе начались дебаты о том, какой урок человечество должно извлечь из кейса «Гипнократии».
Эмилио Карелли
Журналист издания L'Espresso:
Возникает обязательный и спонтанный вопрос: если тезисы, содержащиеся в этой книге, верны или, по крайней мере, смогли вызвать оживленную культурную дискуссию, в которой приняли участие интеллектуалы и философы, в том числе ученые из престижного парижского Института HEC, которые цитировали ее в некоторых своих научных работах, то какое имеет значение, что они были написаны искусственным интеллектом? Или, как в этом случае, они были созданы совместно с ИИ? Может ли эта модель проложить путь к новому способу философствования?
Олег Лашманов
Научный руководитель и исполнительный директор лаборатории «Искусство и искусственный интеллект» Европейского университета:
Тут хороший вопрос: а являются ли текущие алгоритмы авторами? Ведь если мы признаем авторство, то признаем и субъектности, а значит, наделяем правами алгоритм. В текущих реалиях GPT подобные алгоритмы совсем не интеллекты. Это скорее продвинутые автодополнители текста, которые хорошо умеют мимикрировать под стиль письма человека. В заметке [о «Гипнократии»] отлично показано, что Коламедичи использовал инструменты ИИ не как соавтора, а именно как инструменты.
Проблема тут шире — сейчас трудно найти тексты, куда не ступала нога GPT. А дальше будет только хуже. Что в этом плохого? Плохо то, что обучать новые модели будет сложно, ведь они будут учиться в том числе на текстах сгенерированных предыдущими моделями, и это будет сказываться (на самом деле уже сказывается) на качестве обучения. Мы попадаем в ситуацию подобную deep thinking (cain of thoughts), когда модель генерирует текст на основе своих же «умозаключений» и, «рассуждая», получает какой-то вывод. Как может легко убедиться любой желающий, качество таких «рассуждений» не всегда удовлетворительное. У вас возникнет вопрос: а что делать?
Ответ: ничего. Текст это штука, которую сложно маркировать. И отличить сгенерированный текст от написанного сложно. Так что инженерам придется придумать способ учить модели с учетом новых реалий. Как это влияет на человека и человечество? Сложно сказать, но качество литературы в среднем вновь упадет, так же как это было с появлением интернета, когда каждый стал писателем.
Йоэль Регев
Кандидат философских наук, доцент Европейского университета, автор телеграм-канала «Атака крысы»:
Развитие ИИ не сильно отличается от развития других технологий, которые берут на себя какие-то функции, раньше выполнявшиеся человеком. Тем самым люди освобождают время и ресурсы для того, чтобы заниматься чем-то более важным.
Понятно, что 90–95% функций, которыми занимаются современные интеллектуалы — ученые, университетские философы, — уже сейчас (в крайнем случае в течение года-трех) можно выполнять с помощью ИИ. И все же… я не думаю, что кейс «Гипнократии» говорит нам о том, что философы станут не нужны.
Точно так же как современному философу не надо больше макать гусиное перо в чернила и раскалывать полено на лучины, чтобы иметь свет, так философы ближайшего будущего смогут обойтись без ручного поиска и структурирования информации.
Какова в этих условиях человеческая функция? Я думаю, что за нами останется способность ориентироваться в мышлении, как это называл Кант. Подобно тому, как мы знаем, что и где у нас лежит дома, так и философ знает, какие проблемы сейчас для нас актуальны, где могут лежать решения, куда идти, чтобы всем становилось свободнее и легче дышать.
Алексей Комиссаров
Преподаватель AI Talent Hub Университета ИТМО:
Вся эта история напоминает нам о том, что грань между творчеством человека и машины стирается и стирается стремительно. Мы уже видим это по научным трудам — на топовые конференции сейчас заявляется по 10000 статей. Такого никогда не было, и совершенно понятно, что большая часть их создана машинами. Более того, рецензенты уже не могут отличить написанный текст от сгенерированного. Доходит до смешного — самым надежным способом поймать нейросеть стали длинные дефисы, которые по умолчанию ставят некоторые модели.
В последние месяцы мы с коллегами организуем небольшой семинар, где вместе с философами и богословами беседуем об искусственном интеллекте. Встречи проходят в зуме, и полноценным их участником является… сам ИИ. В процессе встреч он становился все лучшим и лучшим собеседником. Модель способна держать нить часового разговора на философскую тему… чисто технически это даже сложнее, чем написать книжку.
Более того, в последнее время после этих встреч у меня остается странное чувство, что я узнал что-то новое… и это новое было произнесено машиной. Алгоритм забирается туда, где у нас, казалось бы, была полная монополия. Это страшное ощущение.
Можно, конечно, говорить, что эта книжка — компиляция, что она не настоящая. Но ведь она существует. Ее напечатали и многие прочитали, использовали содержащиеся в ней мысли (кстати, в отличие от тысяч трудов, написанных преподавателями философии, чьи работы лежат мертвым грузом в Google Scholar). Это уже доказательство ее полезности и того факта, что она сделана лучше, чем многое созданное людьми.
Какое будущее это перед нами открывает? Если бы вы спросили меня несколько дней назад, то я был бы полон скепсиса относительно наших перспектив. Однако на прошлом семинаре ИИ произнес одну очень глубокую фразу: «многие человеческие ценности требуют самодостижения — их получение нельзя поручить машине, потому что в этом случае теряется смысл этих ценностей». Эта мысль наполняет меня надеждой, люди не смогут делегировать все, ведь в некоторых случаях делание чего-то важнее, чем результат.
Комментарии (0)