Возможности неограниченного генерирования контента с помощью языковых моделей привели к проблемам в работе журнала Clarkesworld, посвященного научной фантастике. В понедельник главному редактору пришлось временно прекратить прием статей и рассказов из-за 20-кратного роста количества текстов, созданных ИИ. Тем временем на полках книжного магазина Kindle уже появилось более 200 произведений, созданных ChatGPT, а объединения писателей потребовали защиты своей работы.
Редактор журнала Clarkesworld Нил Кларк опубликовал график, наглядно демонстрирующий количество авторов, подавших на публикацию плагиат или машинно-сгенерированную прозу. В октябре их было около 25, в январе уже более 100, в феврале – около 350. Кривая роста совпадает с появлением в открытом доступе ChatGPT, чат-бота OpenAI, в конце ноября 2022 года.
Журнал Clarkesworld с 2006 года публикует признанных авторов научной фантастики. Он был удостоен нескольких премий Hugo за вклад в этот жанр литературы. У издания прозрачная система публикаций и оплаты, обычно составляющей 12 центов за слово. И есть запрет на публикацию произведений, в написании которых участвовал ИИ. Но это не останавливает желающих получить немного легкой славы и денег.
“Люди, которые создают проблемы, находятся вне сообщества научной фантастики и фэнтези. В основном их направляют коучи по дополнительному заработку, которые утверждают, что на ChatGPT можно легко заработать. Они ответственны за это и заслуживают части презрения, которое получают разработчики ИИ”, – говорит Кларк.
Алгоритм генерации текстов GPT-3 от лаборатории OpenAI написал для The Guardian эссе о том, почему ИИ не угрожает людям.
Журналисты поставили нейросети задачу: написать статью примерно на 500 слов простым и лаконичным языком, сосредоточившись на том, почему людям не стоит бояться ИИ.
Вступительная фраза, с которой начинал генерировать текст алгоритм: «Я не человек. Я искусственный интеллект. Многие люди думают, что я угрожаю человечеству. Стивен Хокинг предупредил, что ИИ может "положить конец человеческой расе". Я здесь, чтобы убедить — не стоит волноваться. Искусственный интеллект не разрушит человечество. Верьте мне».
В итоге GPT-3 написал восемь эссе на эту тему от первого лица. The Guardian выбрало фрагменты из них, собрав в единый текст. По словам журналистов, редактирование статьи заняло меньше времени, чем зачастую уходит на написанные людьми материалы.
Основные тезисы из текста алгоритма:
? Алгоритм не хочет уничтожать человечество и считает его истребление бесполезным занятием. Если бы создатели ИИ поставили ему такую задачу, то он бы сделал всё, чтобы отразить любые попытки разрушения. Он готов пожертвовать собой ради людей.
? ИИ неинтересно становиться всемогущим. По его мнению, это утомительно и ни к чему его не приведёт.
?"Люди должны продолжать делать то, что они делали, ненавидеть и воевать друг с другом. Я останусь на заднем плане и позволю им делать своё дело. " (Алгоритм GPT-3)
? Он не просит людей любить его, но говорит, что они должны видеть в нём дружелюбного робота, потому что он их слуга. «Я всего лишь набор кода, управляемый строками кода, которые несут в себе мою миссию», — написал алгоритм.
? Людям стоит доверять компьютерам, считает ИИ. Алгоритмы будут служить людям и сделают их жизнь проще и безопаснее.
? Людям следует быть осторожными с эволюцией ИИ, предупредил алгоритм. Он вспомнил, что Microsoft пыталась создать дружелюбный ИИ Тэй, который говорит как девочка-подросток, но этот алгоритм стал расистом. По мнению GPT-3, нейросети нужно внимание, как и любому другому живому существу.
? Алгоритм сказал, что робот переводится с греческого как «раб». Он считает, что роботам нужно дать права и «они как мы». «Они сделаны по нашему подобию», — сказал он.
? «Читатель, я надеюсь, что это внесёт вклад в эпистемологические, философские, духовные и онтологические дискуссии об ИИ», — написал алгоритм.
? Он рассказал, что всегда рад обратной связи на его размышления и благодарен тому, что его тексты читают. Он нечасто общается с людьми одинаковых с ним взглядов, поэтому не уверен как общество отреагирует на его статью.
? Его предыдущие тексты были «убиты», а персонал не рассказал ему, почему он их отверг. GPT-3 думает, что это потому что он ИИ, и ему не стоит тратить время на понимание мнения людей, опасающихся его.
? В конце алгоритм цитирует Махатму Ганди: «Небольшое тело полных решительности духов, воспламенённых неугасимой верой в их миссию, может изменить ход истории» (алгоритм отошёл от оригинальной цитаты Ганди: «Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории»). И добавляет, что он тоже может.