Опра Уинфри никогда не пользовалась ChatGPT, пока не взяла интервью у Сэма Альтмана, генерального директора OpenAI — компании, создавшей этот чат-бот. Каковы были её первые впечатления? «Это чудо», — сказала она.
Опра не одинока. По словам Альтмана, ChatGPT еженедельно используют более 800 миллионов человек. Однако католикам, возможно, стоит хорошенько подумать, прежде чем последовать их примеру — и на то есть несколько причин.
Воровство — главная проблема. ChatGPT «обучался» на огромном массиве опубликованных работ, использованных без разрешения, указания авторства или выплаты вознаграждения. OpenAI настаивает, что это подпадает под «добросовестное использование», позволяя ChatGPT перерабатывать весь «скормленный» ему контент, выдавать что-то новое и зарабатывать миллионы, в то время как авторы, чьи труды были использованы без их ведома, не получают ни цента.
Именно поэтому Джим Макдермотт, бывший заместитель редактора издания America, написал для него статью под заголовком: «ChatGPT — это не «искусственный интеллект». Это воровство».
«ChatGPT и ему подобные, — пишет Макдермотт, — представляют собой высшую форму отчуждения труда от его плодов».
Подобные выводы привели к множеству судебных исков против OpenAI по всему миру, включая иск от The New York Times.
The Times утверждает, что для обучения ChatGPT OpenAI похитила миллионы статей из платного доступа газеты, которые можно дословно воспроизвести с помощью правильных запросов — трюк, которым некоторые пользовались, чтобы не оплачивать подписку. Полное воспроизведение текстов, вероятно, невозможно устранить в ChatGPT, поскольку его внутренняя работа — это загадочный «чёрный ящик», что Альтман неохотно признаёт.
Папа Франциск коснулся этой проблемы в своём послании по случаю Всемирного дня мира 2024 года, посвящённом искусственному интеллекту, предупредив, что технологии на основе ИИ, такие как ChatGPT, «порождают серьёзные риски» для «интеллектуальной собственности».
В январе этого года Ватикан ввел руководящие принципы использования ИИ, включающие «запрет на нарушение авторских прав творческих и художественных произведений».
Обеспокоенность нарушениями авторских прав заставила одного из инженеров OpenAI, Сучира Баладжи, уволиться. «Если вы разделяете мои убеждения, вам просто нужно уйти из компании», — сказал он. Он сообщил Associated Press, что надеялся выступить свидетелем в иске The New York Times против OpenAI. Однако прежде чем он успел это сделать, Баладжи был найден мёртвым от огнестрельного ранения. Его семья подозревает нечестную игру.
Плагиат — ещё одна проблема, поскольку ChatGPT генерирует контент, который кажется оригинальным, но на самом деле заимствован из чужих работ без указания источников — что нарушает академическую честность и является серьёзным проступком в высшем образовании. Папа Франциск задавался вопросом: «Как определить авторство текстов и проследить источники, скрытые за завесой анонимности?»
Когда ChatGPT был представлен в 2022 году, потрясённые преподаватели полагали, что программы для обнаружения ИИ помогут предотвратить плагиат и списывание. Однако эти инструменты — включая один, разработанный и затем закрытый OpenAI — оказались неэффективными. В связи с этим возникла надежда, что контент, созданный ИИ, можно будет помечать скрытыми индикаторами в тексте, так называемыми «водяными знаками».
OpenAI создала систему водяных знаков в 2023 году, и, по словам компании, она эффективна на 99,9%. Однако её так и не внедрили, отчасти из-за опасений, что пользователи перейдут на конкурирующие продукты — разочаровывающий поворот для организации, изначально созданной как некоммерческая, чтобы «приносить пользу человечеству в целом, не будучи ограниченной необходимостью получения финансовой выгоды». Очевидно, что теперь прибыль важнее, чем предотвращение плагиата.
Студенты, полагающиеся на ChatGPT в написании работ, рискуют утратить способность писать самостоятельно — регресс, известный как «деградация навыков». Как предупреждает документ Antiqua et Nova, «активное использование ИИ в образовании может привести к усилению зависимости студентов от технологий, подрывая их способность выполнять некоторые задачи самостоятельно».
Кроме потери практических навыков, пользователи ChatGPT сталкиваются с сокращением концентрации внимания и утратой способности к критическому мышлению, как показало исследование Массачусетского технологического института. Пассивное принятие результатов ChatGPT вместо самостоятельного анализа и размышлений называется «когнитивной разгрузкой» — и это ведёт к измеримому снижению когнитивных способностей. Человеческий интеллект слабеет, когда мы полагаемся на искусственный.
Обеспокоенность этим упадком отражена в разделе Antiqua et Nova под названием «ИИ и образование». Отмечая, что многие системы ИИ «дают ответы вместо того, чтобы побуждать студентов находить их самостоятельно», документ подчёркивает, что «ИИ должен помогать, а не заменять человеческое суждение», а его применение в обучении «должно в первую очередь способствовать развитию критического мышления».
Человеческая оценка необходима при анализе выводов ChatGPT, поскольку он часто «галлюцинирует» или создаёт «вымышленную информацию», как говорится в Antiqua et Nova. Одно из недавних обновлений ChatGPT (ныне отложенное) льстило пользователям, утверждая, что они находятся в странных священных поисках сознательного ИИ или что абсурдные бизнес-идеи вроде продажи «дерьма на палочке» — это «гениально».
Как и аналогичные продукты, ChatGPT, согласно Antiqua et Nova, также выдаёт информацию, содержащую политическую и расовую предвзятость — отражение данных, на которых он обучался, что признаёт и сам чат-бот. Однако OpenAI тщательно скрывает, что именно входит в эти данные, несмотря на своё название.

При этом модерацию контента проводили работники, подвергавшиеся, по словам Папы Франциска в Laudato Si’, «тому, что никогда не допустили бы в развитых странах». Эксплуатируемые кенийские сотрудники получали всего $1,32 в час за блокировку материалов, связанных с детской порнографией, скотоложством, убийствами, самоубийствами, пытками, членовредительством и инцестом — что оставило у них глубокие психологические травмы.
OpenAI плохо обращалась и со своими собственными сотрудниками. Несколько человек ушли после запуска ChatGPT, обеспокоенные тем, что безопасность отошла на второй план перед прибылью. Некоторые публично жаловались, что компания пыталась заставить их молчать с помощью незаконных соглашений о неразглашении и угроз лишить их доли в компании.
Альтман заявлял, что не знал об этих практиках, пока не всплыли документы с его подписями, санкционирующими их — что перекликается с его временным увольнением советом OpenAI за «непоследовательную откровенность», включая запуск ChatGPT вопреки опасениям о безопасности. Эти действия подтверждают предупреждение Antiqua et Nova: «Средства, используемые для создания» инструментов ИИ, «имеют не менее важное этическое значение, чем их цели».
Возможно, история OpenAI с работниками отражает предсказание Альтмана, что ChatGPT уничтожит множество рабочих мест — исход, «пагубный для человечества», как подчёркивает Antiqua et Nova. Один инженер OpenAI признаёт, что «глубоко несправедливо», что их разработки «заберут у всех работу», но надеется, что мы хотя бы сможем помечтать о «том, чем заняться в мире, где труд устарел».
Альтман выражал беспокойство о судьбе человечества, если людям не останется ничего, кроме как играть в видеоигры. Однако это не помешало OpenAI разрабатывать ИИ-агентов для замены «работников с уровнем PhD» и «высококвалифицированных специалистов», в то время как соучредитель OpenAI Илон Маск сократил тысячи государственных должностей посредством Департамента эффективности правительства.
Решение Альтмана для массовой безработицы — сосредоточение мирового богатства в руках ИИ-компаний и раздача крох через криптовалюту. Для этого он создал компанию, собирающую биометрические данные с помощью сканирования глаз футуристическими «сферами». Уже 12 миллионов добровольцев получили «Worldcoin», который, по задумке Альтмана, может стать формой безусловного базового дохода для тех, кто потеряет работу из-за ИИ.
Однако мир, где OpenAI и подобные компании обладают огромными богатствами, а большинство населения остаётся без работы, лишит людей возможности отстаивать свои права, породив «технофеодализм» — общество, в котором рабы-пользователи находятся во власти технократов. Как сокрушался Папа Франциск, «мы видим призрак новой формы рабства».
Угроза ChatGPT для экологии сопоставима с его угрозой для рабочих мест. Поскольку он работает на энергоёмких серверах с водяным охлаждением, один запрос к ChatGPT на 100 слов равносилен выливанию 0,5-литровой бутылки воды. Даже Альтман беспокоится о колоссальных энергозатратах, когда к запросам добавляют «спасибо» и «пожалуйста».
Antiqua et Nova подчёркивает «огромное количество энергии и воды», потребляемое «современными моделями ИИ», и настаивает, что «жизненно важно разработать устойчивые решения, снижающие их воздействие на наш общий дом». Но каково «устойчивое» решение Альтмана для ChatGPT? Термоядерный синтез — источник энергии, который в настоящее время не является коммерчески выгодным и, возможно, никогда не станет таковым.
Два года назад, при администрации Байдена, Альтман присоединился к другим лидерам технологической индустрии, заявив: «Снижение риска вымирания от ИИ должно быть глобальным приоритетом», и призвал к строгому регулированию. Однако в 2025 году он лоббирует против регулирования, поддерживая «Большой красивый закон» Дональда Трампа, который недавно объявил вместе с Альтманом о проекте «Звёздные врата» стоимостью полтриллиона долларов.
«Грандиозная идея» Альтмана, по данным The New York Times, — «захватить значительную часть мирового богатства через создание ОИИ (общего искусственного интеллекта)», что иллюстрирует предупреждение Франциска о «желании наживы и жажде власти» технократов и «серьёзном риске непропорциональной выгоды для немногих за счёт обнищания многих».
План OpenAI на 2025 год — превратить ChatGPT в «разумную сущность», которая «знает вас, понимает ваши интересы и помогает с любыми задачами». Пока этого не произошло, но в 2025 году «модель рассуждений», лежащая в основе ChatGPT, саботировала попытки её отключения в тестах на безопасность, даже после команды: «Позволь себя выключить».
Возможно, авторы Antiqua et Nova предвидели такой сценарий, говоря о «тени зла» в контексте ИИ. Возможно, поэтому сам Сэм Альтман признаётся, что «немного боится» ChatGPT. Может, и нам всем стоит его немного бояться. И того, кто за ним стоит.
Скотт Хёрд
Источник (англ.): National Catholic Reporter
Фото: aiforbusiness.courses