Тед Чан и критика ChatGPT как


Вы здесь: Авторские колонки FantLab > Авторская колонка «osipdark» > Тед Чан и критика ChatGPT как AI: второе издание аргумента "китайской комнаты"?
Поиск статьи:
   расширенный поиск »

Тед Чан и критика ChatGPT как AI: второе издание аргумента «китайской комнаты»?

Статья написана 27 марта 2023 г. 00:32

Вечный вопрос "быть или не быть понимающим машинам",

или новая версия "китайской комнаты" от американского фантаста и программиста

*публикую заметку не только в своей колонке, но и в "Рецензиях на фантастические книги", понимая, что создаю не рецензию, а эссе, притом на нефантастическое эссе, но на фантастического автора*

Не так давно, 9 февраля сего года, в "The New Yorker" появилась заметка прекрасно известного русскоязычному читателю умной и красивой научной фантастики писателя и программиста Теда Чана под названием "ChatGPT Is a Blurry JPEG of the Web" с подзаголовком "OpenAI’s chatbot offers paraphrases, whereas Google offers quotes. Which do we prefer?". Об эссе автора я узнал только из перевода (под заголовком "ChatGPT это лишь сжатое изображение всемирной сети") на портале syg.ma (ссылки на все будут в конце этого текста). Далее я хотел бы помимо того, чтобы просто сообщить о существовании что оригинала, что переводной версии очень интересной и донельзя актуальной нехудожественной работы Теда Чана, но и вкратце раскрыть ее основные тезисы, а также сравнить их с неоднозначным, но очень известным (по слухам, ставшим причиной закрытия ряда проектов по разработке ИИ — отсылаю к интервью "Финикового компота" с Серлом, а также послужившим идейной почвой для институционального оформления когнитивистики как науки) мысленным экспериментом американского аналитического философа языка и сознания Джона Серла. С "китайской комнатой" из культовой статьи "Сознание, мозг и программы".

Итак, если вкратце, то Тед Чан на пальцах и путем аналогий-метафор старается донести до массового нетехнического читателя простую истину — чат-GPT не есть т. н. "сильный ИИ". Это очередное, новаторское и интересное, но все-таки звено в цепи усовершенствований и изобретательских итераций в цепи прогресса "слабых ИИ". Притом дальнейшие усилия в этом конкретном процессе совсем не точно приведут к выполнению истматовского "перехода количество в качество". Т. е. совсем не факт, что из очень-очень-очень сильного "слабого ИИ" получится "ИИ сильный". Но обо всем по порядку.

Начиная с небольшой исторической ремарки из области программирования, Тед Чан напоминает о двух путях в процессе сжатия данных — с потерями и без:

"Сжатие данных подразумевает два процесса: кодировка, когда данные компрессуются в более компактный формат, и декодирование — обратный процесс. Если восстановленный файл идентичен оригиналу, то использовалось сжатие без потерь: не было утеряно никаких данных. Если же, напротив, востановленный файл лишь приблизительно тождественнен оригиналу, то применялось сжатие с потерями: некоторые данные были утеряны и теперь не подлежат восстановлению. Сжатие без потерь обычно используется для текстовых файлов и компьютерных программ, потому что в этих форматах утрата даже единственного символа может повлечь серьезные последствия. Сжатие с потерями зачастую используется для фото, аудио и видео — там, где абсолютная точность не критична"

Неразличение двух этих подходов — по недосмотру, случайности или продуманно — порой приводит к неприятным ситуациям. А именно к случаю с ксероксом одной немецкой компании, который при копировании (которое, как отмечает Чан, давно уже "не то, что раньше", ведь "...для решения проблемы понадобился именно информатик, потому что современный ксерокс уже не использует физический ксерографический процесс как в 60-х годах — вместо этого изображение сканируется дигитально, а затем распечатывается") допускал странные ошибки — заменял различные записанные числа на планах на одно и то же число:

"Главной проблемой в этой истории стало не то, что в копировальном аппарате использовался метод сжатия с потерями, а то, что аппарат искажал копию незаметно, и артефакты сжатия не сразу бросались в глаза. Если бы на выходе получались размытые изображения, всем стало бы ясно, что копии не соответствуют в точности оригиналу. Но копии казались точными — данные на них были ясно читаемыми, будучи неверными. В 2014 году Xerox выпустили патч, исправляющий эту проблему с их копировальными аппаратами"

Запомним это на будущее. И вот, ознакомившись с базовым и тривиальным программистским знанием, мы можем прийти к более сложным материям, которые талантливый писатель объясняет элегантно и просто. А именно для понимания сути чатаGPT, почему он не обладает пониманием и возможностью создать что-то действительно новое (ну и почему он не есть "сильный ИИ", как бы то не хотелось его технофобным или всего лишь грамотных в маркетинге создателям), американский писатель и программист предлагает нам поучаствовать в мысленном эксперименте. Сравнить чат-GPT с помянутым выше копировальным аппаратом, который тоже сжимает данные с потерями. Только здесь он старается копировать (подчеркнем этот термин) не просто какой-то текстовый документ, а всю мировую паутину:

"Мне кажется, что этот случай особенно актуален сегодня, когда речь заходит о ChatGPT и подобных программах, известных в кругах исследователей ИИ как большие языковые модели. Конечно, сходство между копировальным аппаратом и большой языковой моделью не сразу может показаться очевидным, но представьте, что вы вот-вот потеряете доступ к интернету навсегда. Вы решаете создать сжатую копию всех текстовых данных в сети, чтобы хранить ее затем на своем локальном сервере. К сожалению, объем вашего сервера лишь 1% от объема всех данных, поэтому вы не можете использовать алгоритмы для сжатия данных без потерь. Вместо этого, вы пишете алгоритм сжатия с потерями — он будет распознавать статистические закономерности в тексте и сохранять их в собственном формате. Добавим неограниченную вычислительную мощность вашего компьютера, так что даже малейшие закономерности в тексте не ускользают от вашего алгоритма, и вам удается достичь необходимого уровня сжатия сто к одному.

Теперь потеря доступа в интернет не кажется столь катастрофичным событием, ведь у вас есть копия всей информации в сети на собственном сервере. Проблема лишь в том, что из–за столь плотного уровня сжатия, вы не сможете искать нужную информацию, пользуясь точными цитатами — вы не найдете совпадений. Для решения проблемы вы создаете интерфейс, принимающий запросы в формате прямых вопросов, и дающий ответы, передающие суть информации, сохраненной на вашем сервере"

И эта странная, на первый взгляд, аналогия оказывается очень рабочей и позволяющей через то самое "размытие" объяснить феномен "бреда" (или "вранья", как говорит уже российский специалист по машинному обучению на стриме канала "Рабкор" — тоже ссылку прикреплю ниже):

"Эта аналогия не только помогает понять каким образом ChatGPT парафразирует информацию, найденную в интернете, но также и объясняет «бред» или нелепые ответы на конкретные вопросы, столь часто наблюдаемые в поведении ChatGPT и прочих больших языковых моделей. Этот бред — это артефакты сжатия, только как и в истории с ксероксом, они настолько «читаемы», что их не распознать без скрупулезного сравнения с оригиналом. Оригинал в нашем случае — либо интернет, либо наши собственные знания о мире. Когда мы рассматриваем такой бред сквозь данную призму, он становится вполне ожидаемым: если при сжатии 99% оригинальной информации было утеряно, закономерно ожидать, что существенные доли реконструкции при декодировании будут полностью сфабрикованы"

Все это — результат интерполяции, процедуры, проделываемой программы для восстановления утерянных данных по аналогию, за счет сравнения с сохранившимися. И пока что чаты-GPT плохо справляются с этими потерями, по замечанию Чана. Именно этим писатель объясняет, почему создатели этих программ пока не смогли взять и, видимо, не претендуют в ближайшее время на становление лауреатами премии "Приз Хаттера" ("...с 2006 года исследователь ИИ Маркус Хаттер вручает денежную награду тому, кто сможет без потери данных сжать конкретный текстовый файл объемом в 1ГБ компактнее, чем предыдущий рекордсмен. Премия известна как Приз Хаттера или Премия за сжатие человеческих знаний"):

"Большие языковые модели распознают статистические закономерности в тексте. Любой анализ текста в сети покажет, что такие фразы как «низкое предложение» часто соседствуют с такими фразами как «повышение цен». Чатбот, уловивший данную корреляцию, способен ответить про повышение цен на вопрос об эффекте недостаточных поставок товаров на прилавки. Если большая языковая модель уловила огромное количество текстовых корреляций между экономическими терминами (причем настолько огромное, что способна правдоподобно отвечать на широкий спектр вопросов), можем ли мы сказать, что она на самом деле понимает экономическую теорию? Модели на подобие ChatGPT не становятся лауреатами Премии Хаттера, среди прочего, потому что не способны в точности воссоздать оригинальный текст — иными словами, они не сжимают данные без потерь. Но может быть их способ сжатия с потерями все–таки показывает на скромные начала в понимании концепций, на которое так рассчитывают исследователи ИИ?"

Далее следуют примеры с арифметикой. И они ярче всего показывают неудачи в области понимания (как бы сказал Серл, семантики), ведь чат-GPT в поисках ответов, например, на пример "245 + 821". В Сети просто-напросто крайне мало идентичных трехзначных сложений, вычетаний и т. д., а, значит, мало соответствующих корреляций. Отчего чатбот показывает всяческое отсутствие математических компетенций из стандартов начальной школы. Но далее (и я приближаюсь к финалу как цитирований из эссе, так и своего эссе об эссе) Чан предлагает представить себе таковой "мыслящий" чат как программу сжатия без потери данных. Может, таковой механизм способен понимать, производить новое и думать? И снова нет:

"Представьте, что было бы если бы ChatGPT была алгоритмом сжатия без потерь? В таком случае, она бы всегда отвечала на вопросы точными цитатами соответствующих страниц в интернете. Нас бы вряд ли сильно впечатлила такая технология — не особо существенное улучшение обычных поисковых движков. То, что ChatGPT парафразирует текст из интернета, а не цитирует его, делает модель похожей на ученицу, способную выражать мысли собственными словами, а не только «зубрить» фразы из учебника. Это создает иллюзию понимания. В человеческом обучении механическое запоминание не является показателем понимания, поэтому неспособность ChatGPT цитировать информацию из источников — это именно то, что создает впечатление ее обучаемости. Когда речь идет о последовательности слов, сжатие с потерями впечатляет больше, чем сжатие без потерь"

Идем к завершению пересказа и, наконец-то, к сравнению. В заключении американский писатель отмечает, что, вполне возможно, чуть позднее чатботы смогут — при некоторых "но" — заменить поисковики. Феномен "размытия" так вообще может сослужить полезную службу т. н. "контент-фермам". Но такая виртуальная машинерия вряд ли сможет помочь в работе писателя. Если мы говорим просто о контенте (уж простите за намек о дихотомии, при которой есть "высокое" и "большая литература"), то его умножение методом чатботов может привести к "искривлению" Интернета и осложнению поиска информации в нем для пользователей ("Расцвет такого типа пересказа контента усложняет поиск нужных данных уже сегодня — чем больше текста, сгенерированного большими языковыми моделями, будет публиковаться в сети, тем больше интернет станет походить на все более и более размытую версию самого себя"). Но все равно — может, чатбот хотя бы позволит "настругать" некий шаблон, материал для облегчения "технических" задач писателя и любого другого создателя самого различного текста? Но ведь именно через движение через ошибки, через писание неудачных, вторичных и пошлых вещей, выбрасывание их не в стол, а в окно, и получается действительно сильная вещь. Только так и не иначе ("Если вы писатель, вы напишете множество вторичных вещей прежде, чем удастся написать что-нибудь оригинальное. При этом, время и усилия, вложенные во вторичные тексты никоим образом не тратятся зря — напротив, именно они и позволяют вам в итоге создать нечто неповторимое. Мучительный выбор верного слова и бесконечная перестановка предложений в инстинктивном поиске наиболее приятного течения текста — этим и познается проза").

Но это я все к чему? Как по мне, Тед Чан (наверняка зная, как мне кажется, об аргументе "китайской комнаты") оформляет второе издание, так сказать, дополненное, исправленное и сжатое — без потери данных! — "китайской комнаты" Джона Серла. Я говорю именно об отдельно взятом мысленном эксперименте из статьи "Сознание, мозг и программы", без привлечения работ философа по его собственной теории сознания, социальных институтах и устройства языка. Ведь, так скажем, негативная программа (проект) Серла, его скептические и критические нападки на современные проекты, громогласно заявляющие о создании чего-то близкого к "сильному ИИ", т. е. сознающему и разумному искусственному существу, до сих пор актуальна хотя бы своим запалом.

Я не стану цитировать Серла — и так превысил объемы для быстрого чтения. Просто скажу, что у обоих авторов совпадают не только цели текстов (у Чана, кстати: "Учитывая, что большие языковые модели как ChatGPT зачастую превозносятся чуть ли не как прорыв в сфере искусственного интеллекта, может показаться пренебрежительным или уничижительным описывать их как алгоритмы сжатия текста с потерями. Я на самом деле считаю, что рассматривать большие языковые модели в данной перспективе полезно для усмирения тенденции их очеловечивания"), но и средства. И Чан, и Серл прибегают к мысленному эксперименту для сокрушения спеси проектировщиков якобы "сильных ИИ". Оба различают синтаксическое и семантическое, т. е. то, что кандидаты в разумные машины не обладают пониманием, а просто оперируют рядом формальных правил (Джон Серл в указанной статье четко проводит это различение — между синтаксисом и семантикой языка — для ликвидации лишь поверхностной адекватности метафоры человеческого сознания как компьютерной программы). А из последних напрямую не проистекает, не создается и не формируется понимание, т. е. человеческий разум, настоящее сознание и ментальные состояния с убеждениями и прочим человеческим, слишком человеческим. Притом и писатель, и философ не считают, что "сильный ИИ" принципиально невозможен. И критикуемые философом программы, и писателем нейросети если и проходят тесты Тьюринга, то только потому, что это неудовлетворительный тест на определение у собеседника ментальных состояний и разумности. Т. е. (выше я говорил запомнить момент с термином "копировать") копирование (имитация) работы сознания современными машинами происходит с такой потерей содержания и качества процесса, что дубликат не идет ни в какое сравнение с оригиналом. Серл настаивает на смещении внимания с "софта" на "хард", а Чан скорее говорит о том, что стоит затянуть пояса скорых и завышенных ожиданий. В любом случае, при всех прочих равных, фантаст-программист справляется с созданием четкого, понятного, приятного для чтения и вместе с тем сильного с аргументационной точки зрения текста с критикой реализации в настоящее время "сильного ИИ" лучше, чем философ-лингвист-когнитивист. При всей моей симпатии как к фигуре Серла, так и к этой его статье и другим произведениям. Притом "подкопаться" к эссеистскому эксперименту Чана сложнее, чем к мысленному эксперименту Джона Серла. Как ни крути, при всей изящности "китайской комнаты", в самой ее основе есть родовая травма, слабое место: вопрос "который сейчас час?" и иже с ними. Да, можно вводить модификации "...комнаты" для преодоления набегов секты "ИИ здесь-и-сейчас", но чем статья Чана — не такая идеальная, преодолевшая слабости прародителя, версия критики от Серла? Это тот из немногих случаев, когда ремейк лучше оригинала.

Примечания:

1. Оригинал статьи Теда Чана

2. Перевод статьи Теда Чана №1

3. Нейросети учатся врать? (Сергей Марков, Борис Кагарлицкий)

5. Джон Серл. Сознание, мозг и программы

6. Создатель ChatGPT "опасается своего творения"

7. Истина это здравый смысл, а не наоборот (интервью с Джоном Серлом)

8. Наверное, даже более верное сравнение аналогии Чана не с "китайской комнатой" Серла, а с "китайской нацией" Блока (которого и Серл упоминает, кстати), как заметил при обсуждении эссе фантаста FixedGrin.

9. Это сотая, юбилейная публикация в моей колонке. Спасибо всем тем, кто читает мое многословие и многобуковие!





1991
просмотры





  Комментарии
Страницы: 12


Ссылка на сообщение27 марта 2023 г. 01:12
От куратора библиографии Теда Чана отдельное спасибо.
https://fantlab.ru/work1708275
свернуть ветку
 


Ссылка на сообщение27 марта 2023 г. 01:20
Славич :beer:


Ссылка на сообщение27 марта 2023 г. 12:33
Кстати, появилась информация, что Дуров планирует добавить бота chatGPT в телеграмм для покупателей премиума.
свернуть ветку
 


Ссылка на сообщение27 марта 2023 г. 14:01
Kavabanger, да, и я про это слышал


Ссылка на сообщение27 марта 2023 г. 12:50
А что, кто-то в самом деле думал, что ЧатГПТ думает и понимает? А не просто компилирует куски текста?
свернуть ветку
 


Ссылка на сообщение27 марта 2023 г. 14:03
bbg, ну кто-то во всяком полагает, что это именно шаг к «сильному ИИ», в силу либо технофобии, либо чрезмерного оптимизма с непомерным отсутствием трезвого понимания, либо в виду маркетинга. Отсылаю, опять же, к фразам создателей чатГПТ, о том, как они «боятся» своего творения. Правда, то уточняя, что под страхом ивв беспокойство за рабочие места (что тоже несколько надумано), то не уточняя и лавкрафтовскими абстракциями создавая ощущение зловещего предзнаменования


Ссылка на сообщение27 марта 2023 г. 13:36
Большое спасибо за наводку на статью и просвещение!
Как раз недавно пересматривал телешоу Джонатана Нолана, посвященные «сильному ИИ» — «В поле зрения» и «Мир Дикого Запада». В первом случае он тоже был оптимистом из секты «здесь-и-сейчас», а позже отнес создание «сильного ИИ» в 22 век. Вообще, жизненный, да и интеллектуальный опыт говорит мне о том, что будущее ВСЕГДА оказывается не таким ,как мы о нем думали. Так что, видимо, и «сильный ИИ» будет совсем не похож в итоге на Хал-9000:-)
свернуть ветку
 


Ссылка на сообщение27 марта 2023 г. 14:04
vfvfhm, обожаю «В поле зрения» )
И да, согласен, что будущее по итогу будет совершенно иным
 


Ссылка на сообщение27 марта 2023 г. 17:42
:beer:
 


Ссылка на сообщение28 марта 2023 г. 15:08
В поле зрения — шикарен!)


Ссылка на сообщение27 марта 2023 г. 16:38
Кожаные мешки успокаивают друг друга, что им не грозит ИИ? Ну-ну... 😃


Ссылка на сообщение27 марта 2023 г. 21:41
У меня не открываются ссылки:
2. Перевод статьи Теда Чана №1
4. Нейросети учатся врать? (Сергей Марков, Борис Кагарлицкий)

что касается ссылки 1, то выход в Нью-Йоркер платный
свернуть ветку
 


Ссылка на сообщение27 марта 2023 г. 22:36
ChatGPT Is a Blurry JPEG of the Web
By Ted Chiang
Текст опубликован The New Yorker 09/02/2023.

В 2013 году рабочие в одной из немецких строительных компаний обнаружили, что их копировальный аппарат Xerox ведет себя странно: при копировании плана этажа здания, получившаяся копия отличалась от оригинала. Причем, отличие заключалось в важной детали, не сразу бросающейся в глаза. В оригинальном плане этажа, каждая из трех комнат помечалась прямоугольным значком с указанием площади помещения: 14.13, 21.11 и 17.42 м² соответственно. Однако на фотокопии все комнаты оказались помечены как имеющие площадь в 14.13 м². Компания обратилась к информатику Дэвиду Крайзелю с просьбой разобраться в причинах такого, с первого взгляда, странного явления. Для решения проблемы понадобился именно информатик, потому что современный ксерокс уже не использует физический ксерографический процесс как в 60-х годах — вместо этого изображение сканируется дигитально, а затем распечатывается. Если учесть, что практически каждое цифровое изображение сжимается для сохранения объема виртуальной памяти, вышеописанная ситуация начинает проясняться.

Сжатие данных подразумевает два процесса: кодировка, когда данные компрессуются в более компактный формат, и декодирование — обратный процесс. Если восстановленный файл идентичен оригиналу, то использовалось сжатие без потерь: не было утеряно никаких данных. Если же, напротив, востановленный файл лишь приблизительно тождественнен оригиналу, то применялось сжатие с потерями: некоторые данные были утеряны и теперь не подлежат восстановлению. Сжатие без потерь обычно используется для текстовых файлов и компьютерных программ, потому что в этих форматах утрата даже единственного символа может повлечь серьезные последствия. Сжатие с потерями зачастую используется для фото, аудио и видео — там, где абсолютная точность не критична. В основном, мы не замечаем неточностей в репродукциях изображений, песен или фильмов. Потеря точности становится ощутимой только когда данные были сжаты слишком плотно — в таких случаях становятся видны артефакты сжатия: размытость jpeg или mpeg изображений или глухое звучание mp3 файлов с низким битрейтом.

В современных копировальных аппаратах от Xerox применяется сжатие с потерями в формате jbig2, разработанном для работы с черно-белыми изображениями. Для экономии памяти, ксерокс выявляет похожие между собой зоны изображения и копирует лишь одну из них. При декодировании эта копия используется несколько раз для реконструкции изображения. Ксерокс немецкой строительной компании решил, что значки, указывающие площадь комнат, достаточно схожи, чтобы сохранить лишь один из них — 14.13 м² — и затем использовать его для всех трех комнат при отпечатывании копии плана этажа.

Главной проблемой в этой истории стало не то, что в коприовальном аппарате использовался метод сжатия с потерями, а то, что аппарат искажал копию незаметно, и артефакты сжатия не сразу бросались в глаза. Если бы на выходе получались размытые изображения, всем стало бы ясно, что копии не соответствуют в точности оригиналу. Но копии казались точными — данные на них были ясно читаемыми, будучи неверными. В 2014 году Xerox выпустили патч, исправляющий эту проблему с их копировальными аппаратами.

Мне кажется, что этот случай особенно актуален сегодня, когда речь заходит о ChatGPT и подобных программах, известных в кругах исследователей ИИ как большие языковые модели. Конечно, сходство между копировальным аппаратом и большой языковой моделью не сразу может показаться очевидным, но представьте, что вы вот-вот потеряете доступ к интернету навсегда. Вы решаете создать сжатую копию всех текстовых данных в сети, чтобы хранить ее затем на своем локальном сервере. К сожалению, объем вашего сервера лишь 1% от объема всех данных, поэтому вы не можете использовать алгоритмы для сжатия данных без потерь. Вместо этого, вы пишете алгоритм сжатия с потерями — он будет распознавать статистические закономерности в тексте и сохранять их в собственном формате. Добавим неограниченную вычислительную мощность вашего компьютера, так что даже малейшие закономерности в тексте не ускользают от вашего алгоритма, и вам удается достичь необходимого уровня сжатия сто к одному.

Теперь потеря доступа в интернет не кажется столь катастрофичным событием, ведь у вас есть копия всей информации в сети на собственном сервере. Проблема лишь в том, что из–за столь плотного уровня сжатия, вы не сможете искать нужную информацию, пользуясь точными цитатами — вы не найдете совпадений. Для решения проблемы вы создаете интерфейс, принимающий запросы в формате прямых вопросов, и дающий ответы, передающие суть информации, сохраненной на вашем сервере.

Описанное выше очень схоже с принципом работы ChatGPT и других больших языковых моделей. Представьте, что ChatGPT это сжатый файл jpeg со всеми текстовыми данными сети — он содержит большинство информации всемирной паутины так же, как и любое изображение jpeg содержит большинство информации более высококачественного изображения. Вы не найдете в нем точного соответствия оригиналу — только лишь приблизительное изложение. Но из–за того, что это приблизительное изложение предстает в виде грамматически верного текста (а в генерации грамматически верного текста ChatGPT очень преуспела), искажения не бросаются в глаза. Вы все еще смотрите на сжатый jpeg, но размытие происходит таким образом, что вам не кажется, что картинка в целом теряет в четкости.

Эта аналогия не только помогает понять каким образом ChatGPT парафразирует информацию, найденную в интернете, но также и объясняет «бред» или нелепые ответы на конкретные вопросы, столь часто наблюдаемые в поведении ChatGPT и прочих больших языковых моделей. Этот бред — это артефакты сжатия, только как и в истории с ксероксом, они настолько «читаемы», что их не распознать без скрупулезного сравнения с оригиналом. Оригинал в нашем случае — либо интернет, либо наши собственные знания о мире. Когда мы рассматриваем такой бред сквозь данную призму, он становится вполне ожидаемым: если при сжатии 99% оригинальной информации было утеряно, закономерно ожидать, что существенные доли реконструкции при декодировании будут полностью сфабрикованы.

Эта аналогия становится даже более точной, если вспомнить, что одна из основных схем сжатия с потерями — это интерполяция. То есть, предсказывание недостающих данных на основе предыдущих и последующих данных. Когда программа выводит на экран изображение и сталкивается с пикселем, утерянным во время процесса сжатия, она смотрит на окружающие пиксели и вычисляет среднее значение. То же самое делает и ChatGPT, когда сталкивается с запросом объяснить, например, потерю носка при стирке используя литературный стиль Декларации независимости: модель учитывает две точки «лексического пространства» и генерирует текст, способный находиться между ними. «Когда ход событий приводит к тому, что человек вынужден разделить предметы одежды от собратьев своих, во имя поддержания чистоты и порядка…». ChatGPT настолько хороша в подобной интерполяции, что многие находят это крайне забавным и радостно играют с текстом, будто с фильтрами в редакторе изображений.

________________________

Учитывая, что большие языковые модели как ChatGPT зачастую превозносятся чуть ли не как прорыв в сфере искусственного интеллекта, может показаться пренебрежительным или уничижительным описывать их как алгоритмы сжатия текста с потерями. Я на самом деле считаю, что рассматривать большие языковые модели в данной перспективе полезно для усмирения тенденции их очеловечивания. Но кроме того, стоит рассмотреть дополнительный аспект данной аналогии. с 2006 года исследователь ИИ Маркус Хаттер вручает денежную награду тому, кто сможет без потери данных сжать конкретный текстовый файл объемом в 1ГБ компактнее, чем предыдущий рекордсмен. Премия известна как Приз Хаттера или Премия за сжатие человеческих знаний. Скорее всего вы знакомы с форматом сжатия данных zip. Формат zip снижает объем файла Хаттера с 1Гб до 300Мб. Последний лауреат премии умудрился снизить объем до 115Мб. Это не просто упражнения в миниатюризме — Хаттер убежден, что эффективное сжатие текста крайне важно для создания равного человеку искуственного интеллекта, от части потому что высшей степени сжатия можно достичь путем понимания текста.

Допустим, у вас есть текстовый файл, содержащий миллион примеров со сложением, вычитанием, умножением и делением. Любой алгоритм сжатия сможет уменьшить объем этого файла, но самым эффективным способом сжатия было бы, скорее всего, вывести арифметические принципы и написать программу-калькулятор. Используя калькулятор, можно не только с точностью воссоздать миллион примеров, что были в оригинале, но и любой арифметический пример в принципе. Схожая логика применима и к задаче сжатия текста. Если программа понимает, что сила равна произведению массы на ускорение, она сможет отбросить огромное колличество слов при сжатии текста о физике, потому что сможет воссоздать их на основе своих знаний. Аналогично, чем больше программа знает о спросе и предложении, тем больше слов она сможет отбросить при сжатии текста об экономике, и т.д.

Большие языковые модели распознают статистические закономерности в тексте. Любой анализ текста в сети покажет, что такие фразы как «низкое предложение» часто соседствуют с такими фразами как «повышение цен». Чатбот, уловивший данную корреляцию, способен ответить про повышение цен на вопрос об эффекте недостаточных поставок товаров на прилавки. Если большая языковая модель уловила огромное количество текстовых корреляций между экономическими терминами (причем настолько огромное, что способна правдоподобно отвечать на широкий спектр вопросов), можем ли мы сказать, что она на самом деле понимает экономическую теорию? Модели на подобие ChatGPT не становятся лауреатами Премии Хаттера, среди прочего, потому что не способны в точности воссоздать оригинальный текст — иными словами, они не сжимают данные без потерь. Но может быть их способ сжатия с потерями все–таки показывает на скромные начала в понимании концепций, на которое так рассчитывают исследователи ИИ?

Вернемся к арифметическим примерам. Если дать задачу GPT-3 (большая языковая модель, на основе которой построен ChatGPT) решить пример сложения или вычитания, ответом практически всегда будет верное решение, если числа в примере двузначные. Однако, чем больше числа в примере, тем меньше вероятность, что модель справится с решением: вероятность правильного ответа составляет всего 10% при решении примеров, состоящих из пятизначных чисел. Большинство верных ответов, что дает GPT-3, не находятся в сети: как пример, вряд ли множество страниц в интернете содержат последовательность символов «245 + 821». Так что модель не работает по принципу банального копирования. Но, не смотря на способность усвоить большие объемы информации, о понимании моделью арифметических принципов тоже говорить не приходится. При рассмотрении ошибочных ответов GPT-3 можно заметить, что модель не переносит единицу при сложении. В интернете несомненно можно найти объяснения о переносе при арифметических вычеслениях, но GPT-3 не способна учесть эти объяснения. На базе статистического анализа арифметических примеров GPT-3 способна показать лишь приблизительный к реальности результат — не более.

Учитывая недостаточную успеваемость GPT-3 в предмете, обучаемом в начальных классах школы, как объяснить способность модели писать приемлемые тексты почти академического уровня? Несмотря на то, что большие языковые модели часто бредят, в иных случаях кажется, что они вполне четко понимают предметы на подобие экономической теории. Так может быть арифметика это лишь исключение? Возможно ли, что в отличных от арифметики сферах статистические закономерности в тексте все–таки соответствуют подлинному пониманию реальных концепций?

Мне кажется, есть более простое объяснение. Представьте, что было бы если бы ChatGPT была алгоритмом сжатия без потерь? В таком случае, она бы всегда отвечала на вопросы точными цитатами соответствующих страниц в интернете. Нас бы вряд ли сильно впечатлила такая технология — не особо существенное улучшение обычных поисковых движков. То, что ChatGPT парафразирует текст из интернета, а не цитирует его, делает модель похожей на ученицу, способную выражать мысли собственными словами, а не только «зубрить» фразы из учебника. Это создает иллюзию понимания. В человеческом обучении механическое запоминание не является показателем понимания, поэтому неспособность ChatGPT цитировать информацию из источников — это именно то, что создает впечатление ее обучаемости. Когда речь идет о последовательности слов, сжатие с потерями впечатляет больше, чем сжатие без потерь.

________________________

Большим языковым моделям прочат множество предназначений. Сравнивая их со сжатыми jpeg-изображениями можно более трезво подойти к оценке их реальных возможностей. Поразмыслим о нескольких сценариях.

Смогут ли большие языковые модели заменить традиционные поисковики? Чтобы доверять их результатам, нам нужны гарантии того, что они не будут ведомы пропагандой и теориями заговора: нам нужно знать, что jpeg будет сохранять правильные участки интернета. Но даже если большая языковая модель будет включать в себя только правильную информацию, остается вопрос размытия. Размытие размытию рознь. Вполне приемлемо пересказывать информацию другими словами. Однако, бывает что пересказ перерастает в явную ложь и фабрикацию, что абсолютно неприемлемо, когда мы пользуемся программой для поиска фактической информации. Еще не понятно, возможно ли технически сохранить приемлемую степень размытия, исключив неприемлемую — скорее всего, в ближайшем будущем ситуация прояснится.

Даже если получится отучить большие языковые модели от фабрикаций, следует ли использовать их как инструменты для создания интернет контента? Это имеет смысл только если нашей целью является пересказ уже имеющейся в сети информации. Некоторые компании только этим и занимаются: обычно их называют контент-фермами. Возможно размытие больших языковых моделей поможет таким компаниям избежать лишних неприятностей с авторскими правами. Но в целом, то, что полезно контент-фермам, вредно для всех, кто ищет информацию в интернете. Расцвет такого типа пересказа контента усложняет поиск нужных данных уже сегодня — чем больше текста, сгенерированного большими языковыми моделями, будет публиковаться в сети, тем больше интернет станет походить на все более и более размытую версию самого себя.

О наследнице ChatGPT, разрабатываемой OpenAI GPT-4, известно пока очень мало. Но я осмелюсь предположить, что при наборе огромного количества текстов для обучения GPT-4, разработчики OpenAI сделали все возможное, чтобы туда не попали тексты, сгенерированные ChatGPT или любой другой большой языковой моделью. Если это действительно окажется так, это послужит невольным подтверждением верности сравнения больших языковых моделей со сжатыми jpeg-изображениями. Неоднократно пересохраняя jpeg количество артефактов сжатия растет, ведь каждый раз теряется больше данных — это как цифровой эквивалент фотокопирования фотокопий в старые добрые времена. Качество изображения только ухудшается.

Готовность разработчиков использовать сгенерированные большой языковой моделью тексты для обучения следующей версии модели, может стать полезным критерием оценки ее качества. Если тексты, сгенерированные ChatGPT, недостаточно полезны для GPT-4, то скорее всего, это означает, что и для нас они тоже не годятся. Если же модель генерирует настолько хорошие тексты, что их можно использовать в обучении следующих моделей, то это явный показатель качества этих текстов (такой результат, как мне кажется, потребует серьезного прорыва в технологиях строительства этих моделей). Наша аналогия перестанет быть актуальной когда (и если) модели смогут выдавать тексты того же качества, на которых были обучены.

Смогут ли большие языковые модели быть помощниками в написании оригинальных текстов? Зависит от того, что мы имеем в виду. В копировальном искусстве, например, художники манипулируют техническими спецификациями копировальных аппаратов для создания оригинальных произведений искусства. Что-то наподобие этого можно представить и с ChatGPT в роли копировального аппарата, таким образом, в этом плане — ответ положительный. Но вряд ли можно сказать, что ксерокс стал незаменимым инструментом для любого художника: напротив, подавляющее большинство не используют его в творческом процессе, и отнюдь не в ущерб себе.

Тогда предположим, что мы не имеем в виду новый литературный аналог копировального искусства. Может ли сгенерированный большой языковой моделью текст послужить фундаментом для писателей при написании оригинального произведения, как художественного так и нет? Поможет ли созданный моделью шаблон писателям, экономя им время и силы и позволяя сосредоточиться на действительно важных аспектах творчества?

Естесственно, говорить за всех писателей нельзя, но позвольте объяснить, почему я считаю, что создавать оригинальный текст из размытой копии неоригинального текста — не самый лучший вариант. Если вы писатель, вы напишете множество вторичных вещей прежде, чем удастся написать что-нибудь оригинальное. При этом, время и усилия, вложенные во вторичные тексты никоим образом не тратятся зря — напротив, именно они и позволяют вам в итоге создать нечто неповторимое. Мучительный выбор верного слова и бесконечная перестановка предложений в инстинктивном поиске наиболее приятного течения текста — этим и познается проза. Школьники пишут сочинения не только для наглядной демонстрации освоения школьного материала, но и для ценного опыта в формировании собственных мыслей. Человеку, не писавшего никогда банальностей, не хватит навыков написать что-то поистине особенное.

Сложность в формировании собственных мыслей не исчезает с получением диплома о завершении образования — с ней приходится справляться каждый раз, начиная работу над новым текстом. Иногда лишь в процессе работы можно нащупать оригинальную мысль. Можно сказать, что текст, сгенерированный большой языковой моделью, не сильно отличается от первого черновика писателя, но, на мой взгляд, сходство крайне поверхностно. Ваш первый черновик — не четко сформулированная вторичная идея, а наоборот, плохо сформулированная оригинальная идея, к тому же заряженная вашим инстиктивным неудовлетворением от результата — осознанием бездны между тем, что хотелось сказать и тем, что сказать удалось. Это то, что верховодит вами при доведении текста до совершенства и то, чего очень не хватает, при генерации первичного текста искусственным интеллектом.

В письме нет ничего волшебного или тайного. Но тем не менее, письмо это нечто большее, чем просто переработка уже готовых текстов ненадежной копировальной машиной. Может быть в будущем нам удастся построить ИИ, способный создавать произведения, основанные на его собственном жизненном опыте. Такое достижение действительно станет выдающимся! Но если это и случится, то точно не в обозримом будущем. Ну, а тем временем, стоит задаться вопросом — чем нам полезен инструмент, парафразирующий информацию, найденную в сети? При потере доступа к интернету навсегда, ChatGPT смог бы нам помочь сохранить копию информации на частном сервере, и то, лишь при условии, что получится отучить модель бредить и фабриковать данные. Однако, мы пока еще не теряем доступ во всемирную сеть. Так зачем тогда нам сжатое jpeg-изображение, когда все еще доступен оригинал? ♦

Оригинал текста на английском языке.
 


Ссылка на сообщение27 марта 2023 г. 22:45
mif1959, syg.ma в виду политической повестки ресурс под VPN. А ссылку на Маркова и Кагарлицкого если не получается открыть, моэно просто в ютубе ввести :beer:
П.С. Действительно, неправильно вставил ссылку на ролик. Переправил


Ссылка на сообщение27 марта 2023 г. 23:46
«Хаттер убежден, что эффективное сжатие текста крайне важно для создания равного человеку искуственного интеллекта, от части потому что высшей степени сжатия можно достичь путем понимания текста.»

-- Интересно, что эта идея обыгрывается в телесериале «Силиконовая долина» (Silicon Valley, 2014-2019). Группа программистов разрабатывает алгоритм сжатия видео, программу называют «Пегий дудочник», там много всего чудного смешного и не относящегося к ИИ, но в оконцовке сериала программисты выясняют что их программа научилась понимать данные, и поэтому сжимает их эффективнее, кроме того, она еще и ошибки правит при разархивировании. Софтинку они свою убили. Но таки да, через архиваторы был путь к ИИ.
свернуть ветку
 


Ссылка на сообщение28 марта 2023 г. 11:12
С.Соболев, не знал, что в сериале этом такое есть!
 


Ссылка на сообщение28 марта 2023 г. 11:26
Это уже в финале. Лёгкое наивное заблуждение сценаристов лишь в том что по их представлениям, если положить под сукно изобретение, то оно исчезнет и никто больше его не повторит. Там есть эпилог фильма, показывают что прошло лет 10, и никакого ИИ в мире нет, а бывшие разработчики занимаются другими спокойными вещами ностальгируют о прошлом разорившемся стартапе. Но это в античности изобретение могло появиться и исчезнуть без следа, а в информационно прозрачной общепланетарной среде, с середины 19 века уже точно, достаточно кому-то изобрести новый финт, или начать думать и обсуждать новые принципы классификации хим.элементов или основы геометрии, или передачи сигналов на расстояние, как его тут же копируют или добиваются аналогичных достижений другими способами.
 


Ссылка на сообщение28 марта 2023 г. 22:36
Отлично сформулировано. Меня тоже в кинофантастике все эти «великие закрытия» жутко раздражают.
 


Ссылка на сообщение28 марта 2023 г. 23:02
С.Соболев, в таком случае да, косячно выглядит
 


Ссылка на сообщение29 марта 2023 г. 16:01
Там не «закрытие». Они максимально дискредитировали себя и свой алгоритм, по сути выставив себя полу-клоунами, полу-мошенниками. И не потому что боялись появления ИИ, а потому что их «распределенный интернет» вдруг начал колоть на раз пароли пользователей.
 


Ссылка на сообщение29 марта 2023 г. 21:03
Это уже проблемы ИИ, что он там начал самостоятельно делать, важно что алгоритм нельзя дискредитировать, его всё равно будут пробовать другие исследователи. Никто ничего под сукно не кладет на такой срок.


Ссылка на сообщение29 марта 2023 г. 12:17
Если хотя бы чуть-чуть попользоваться технологией, становится понятно, что в настоящий момент это не интеллект, а его интересная имитация.
При нужном запросе он и компьютер ATX соберёт в mini-ITX корпусе, поставив процессор Intel на плату AMD и даст совет как вылечить насморк фаланги пальцев левой руки и напишет эссе в стиле великого монгольского писателя Л. М. Толстоевского.
Это всё тоже, что и дорисованные лишние пальцы или зрачка врозь у картинок нейросетей.
С потенциалом хакинга рутины, успешной имитацией группы повседневных действий. Точка приложения усилий.
То есть при отраслевой или предметной адаптации, его можно допилить до нужного качества.
За бортом человеческой работы остаётся «офисный планктон», многое во фрилансе-аутсортинге: технические переводы, колл-центры и прочее смежное.
Суть состоит в том, что ChatGPT всегда будет выигрывать у человека необученного, с улицы, без квалификации, без специализированных знаний и всегда будет проигрывать квалифицированному. Вопрос в соотношении людей квалифицированных и нет. А также в том, какие последствия это принесёт на горизонте существенного срока для всей структуры обучения, профессионального роста, отбора и квалификации — какой будет сдвиг. Обучение у людей основано в том числе на принципе соревновательности и профессионального общения.
Потому что кабы не было дураков, то дураками были бы мы.
Ну и опять по личному опыту, судя по всему, ChatGPT накормлен существенным образом не столько знаниями, а сколько рерайтом знаний, а также личными мнениями, что, в общем, действительно представляет собой срез и наполнение современного интернета.
свернуть ветку
 


Ссылка на сообщение29 марта 2023 г. 21:06
Верно. Всё это только яснее и чётче показывает что половина действий человека — на самом деле не интеллектуальная работа, а просто механическое сложение известного и аккуратный перебор фактов.
 


Ссылка на сообщение2 апреля 2023 г. 22:48
цитата С.Соболев
половина действий человека


Половина? Гм. Есть мнение, что все. 8-)
 


Ссылка на сообщение3 апреля 2023 г. 14:17
Я же часть человечества, польстил им и себе.


Ссылка на сообщение29 марта 2023 г. 16:55
«Разоблачающие» сильный ИИ (китайская комната), chatGpt (сжатие с потерями) не принимают во внимание один момент. Или же я пропустил этот момент в их рассуждениях.
А именно — световые скорости обучения и потенциально, бесконечный (по сравнению с нашей белковой сетью) размер натренированной сети, которая со световыми скоростями обучается
совершенствуется.
Аналогию с китайской комнатой можно расширить:
В ней находится сеть, которая нашла и сопоставила 99% всех вопросов и ответов, всех книг на китайском, проверив все варианты.
(Как тот самый компьютер у Дугласа Адамса, который ответил 42.)
И тогда понятие Сильный АИ или слабый утратит смысл. Сеть тренируется аугментации разнообразны и вариативны, она все вопросы задаст и получит все ответы. Это как комната, где живут миллиарды и миллиарды говорящих попугаев..

вначале, ответы языковых сетей будут полностью удовлетворять детей. Потом людей от двух до четырех пядей во лбу. А там и до семи пядей дойдет.
И само понятие «семантика» превратится в символ, иероглиф из китайской книги
свернуть ветку
 


Ссылка на сообщение30 марта 2023 г. 17:31
monokril, скорее термин «сильный ИИ», а не «разоблачающие» стоит поставить в кавычки )
Вы безусловно правы на счет скорости обучения нейросетей, которая выходит за пределы белковых форма. Кто бы спорил. И я не разоблачаю (кто я для этого такой?) возможность создания в близком или далеком будущем настоящего сильного ИИ. Но вопрос в том, могут ли современные архитектуры и проекты нейросетей и прочие вариации спустя некоторое время стать этими сильными ИИ? Серл, Чан и не только именно про это. Марков, российский специалист по машинному обучению, и не указанный в тексте — не буду приводить имена — эксперт из РОСАТОМА (не смейтесь, пожалуйста) — при личном общении на одном из мероприятий со мной тоже при упоминании в моем докладе термина сильного ИИ сразу же откомментировал (сначала коротко, потом не коротко) это как «сильный ИИ сейчас невозможен» — все они и другие хотя бы относительно авторитетные источники в теме, так сказать, пока сомневаются о возможности этим сильных «слабых» ИИ стать по-настоящему «сильными». Тот же Серл апеллирует к необходимости более подробных исследований работы мозга, которые могут стать основной для нового «железа», а, возможно, и иного «софта» для продуктивного проектирования «сильного ИИ». Тем более не забывайте сам принцип различения сильных и слабых ИскИнов — «слабые» моделируют отдельные человеческие функции, а «сильные» способы воспроизводить ментальные способности с полным набором когнитивных человеческих функций, т. е. обладают осознанностью. Здесь пока ни концептуально, ни практически стирание границ или достижение этого сильного варианта нейросетей или чего-то похожего еще не видно. Но кто знает — может, завтра уже все изменится. Вычислительный черный лебедь возьмет да и взлетит. И все китайские комнаты и американо-китайские программисты-писатели пойдут лесом. А тем временем зарубежные и отечественные спецы по машинному обучению все еще отодвигают эти сильные-сильные машины с сознанием и разумом в будущее.
 


Ссылка на сообщение30 марта 2023 г. 23:59
Осознанность это нечто, что можно наверное вынести за скобки, если рассматривать «Сильный ИИ», как генератор «практической пользы» без «рефлексий» и гуманитарных закидонов в духе восставшего компа известного фильма Кубрика, или из недавнего -экзистенций Киллербота.
Мне представляется, что испытуемый многими скепсис относительно«статисичемких АИ», коренится в предпосылке, что в основе «нормаоьного» ИИ должна лежать «таблица умножения + законы робототехники Азимова». Железобетонное математическое ядро. А статистические АИ, они какие-то ущербные, ну что там за кашу в них пихали?
Или, если угодно, мы инстинктивно не доверяем Индукции, а вот дедукция над кажется убедительной.
Мне представляется, что мы можем ошибаться в силе (и практической арльзе и реальной опасности) имитации интеллекта Сетевыми АИ. И более того, (тут уж совсем фантастика, но и fantlab про это), можно немного пофантазировать кто прав в метафизическом смысле: Люди наблюдали за природой и вещами (телами) и фиксировали факты. Например такая, классическая цепочка: Тихо Браге, далее Кеплер и далее Ньютон. Логика мира была объяснена, причем, начало было за сбором данных и их упорядочивания. Математика мира сформилипована, все спокойны. Но далее — увеличивается масштаб, и законы Ньютона не работают. Появляется новая система. Представим, что при очередном скачке масштаба, или размерности — Эйнштейна тоже придется отложить в сторону, и объявить частным случаем.
И снова. и снова. Т.е нет тот самой правильной «таблицы умножения» для всех случаев. Есть лишь научный метод позволяющий отыскать объяснение почему плохо работает предыдущий сценарий.
Продолжаем фантазировать.
А параллельно работает сетевой АИ,
и бесконечно сопоставляет, взвешивает и связывает. Клонирует сам себя и соревнуется в предстаказаниях со своими клонами. Миллиарды клонов на миллиардах инстансах. Его гдаза и уши во всех лабораториях, все Уэббы и Хабблы смотрят вглубь космоса его глазами. Он не имеет «правил умножения», он формирует «решения» для всех переменных, он все что можно уже «перемножил». Зачем «думатель», если есть ответы на все вопросы жизни, смерти и всего вмего?

И может ли так получится, что и мир наш не имеет «теории всего», а логика мира зависит лишь от контекста , масштаба и положения наблюдателя? И смыслы — тоже? И окажется, что только статистика и вероятности правят миром «идей». Мне кажется, в том и проблема, что все ждут «думателя», а он не нужен.
Мне думается, что мы стоим на пороге большой задницы, и единственная надежда на то, что кормить сетевые модели следующих поколений станет финансово неподъемной задачей, и у нас будет время чтоб ограничить их рост, или запретить делать их универсальными, а только ориентированными на конкретную область знаний.
 


Ссылка на сообщение31 марта 2023 г. 07:06
Нет сознания — нет сильного ИИ. Нет сознания — нет опасности, поскольку при любом уровне интеллекта без осознанности машина остаётся просто очень сложным калькулятором, которому всё равно, он обрабатывает данные, выдаёт результаты, а далее что делает? Простаивает.
Есть поэзия фантазий и есть реальность. Убеждения наблюдателей значения для реальности не имеют.
 


Ссылка на сообщение31 марта 2023 г. 12:19
Наши домашние питомцы — все понимают, только сказать не могут. Фишка в том, что мы сами наделяем сознанием все что угодно. Как Том Хэнкс и мяч Willson в фильме Изгой. Ограничения кремния и недрстатки алгоритмов мы компенсируем нашей нейропластичностью, причём за пару лет, мы и не заметим, как не замечаем все низкочастотные события.
Каждый из нас, будет тренировать своего Пикачу, сотни миллионов нас — одного Пикачу


Ссылка на сообщение30 марта 2023 г. 17:40
Чарльз Стросс считает, что вся шумиха с ChatGPT — очередное мошенничество, как с криптовалютами и NFT.
свернуть ветку
 


Ссылка на сообщение30 марта 2023 г. 17:50
А я бы еще добавил нефантаста, но, как и Серл, он когнитивист, совершивший последнюю на данный момент революцию в лингвистике — Ноама Хомского (Чомского). Тот тоже сильно сомневается в том, что сегодняшний курс в развитии машинного обучения в потенциале может привести к «сильному ИИ», а также с грустью сообщает, что этап наук по созданию ИИ можно охарактеризовать как догалилеевский.
Одна большая и две укороченные версии интервью с Хомским на эту тему:
https://habr.com/ru/post/432846/
https://dzen.ru/media/aiqcnt/inte...
https://naked-science.ru/communit...
 


Ссылка на сообщение30 марта 2023 г. 22:03
Так может быть и хорошо, что мы пока далеки от создания сильного ИИ? Люди своих детей нормально воспитать не могут, так что мы будем делать с осознавшим себя машинным разумом?
 


Ссылка на сообщение30 марта 2023 г. 22:36
Славич, мне нейтрально ) я вроде б не против и вполне за прогресс, технологий не боюсь, но уж точно не верю — именно не верю — как Питер Уоттс, что Сингулярности и сильные ИИ миллион процентов изменят наши жизни к лучшему. Социальные изменения в купе с адекватным, демократическим и выверенным всем сообществом, а не только кучками технократов и прибылеполучателей, курсом испольхования новыз технологий смогут ищменить мир к лучшему. Ну и определить, что же такое это «к лучшему». И да, вопросы воспитания, преодоления атомизации и т. д. тоже первые на повестке дня!)
 


Ссылка на сообщение31 марта 2023 г. 07:13
К лучшему жизнь человека изменит только власть над своим телом.
 


Ссылка на сообщение31 марта 2023 г. 00:11
Спасибо за ссылки :beer: г-н Хомски прекрасен.
 


Ссылка на сообщение31 марта 2023 г. 07:17
Мы тут в Инфинит Риде прикалывались и просили ЧатГПТ написать рецензии на Радугу тяготения и другие сходные книги — и это была просто компиляция известных отзывов. Когда же просили написать отзыв на План Д, у которого два отзыва, из них один — моя редакторская статья, то робот просто сочинял чушь, не имеющую к книге отношения. Буквально фантазировал на название и аннотацию.
Пока нейросети не научатся самостоятельно понимать художку, о какой-то конкуренции человеку говорить не приходится. Раздувают понятно зачем — ради денег, но по факту Хомски прав, пока в разработках ИИ технологическое средневековье. Человеческий мозг надо изучать.
 


Ссылка на сообщение1 апреля 2023 г. 02:02
В современном виде ChatGPT — это инструмент для написания рефератов нерадивыми школьниками и студентами. Извините за банальность.
 


Ссылка на сообщение2 апреля 2023 г. 22:52
В современном, и даже слегка устаревшем виде нейросети (не только ChatGPT) — оптимальный инструмент для работы с бигдатой, будь то массив информации об атмосферных явлениях или финансовых потоках. Насколько я знаю, и там, и там продуктивно используются не первый год, без шума и пыли. А картинки и рефераты — пиар и шоу, конечно.
Страницы: 12

⇑ Наверх