Слово машины

28-04-2023
  • Alexey GrinbaumАлексей Гринбаум - философ, физик, член французского комитета по этике цифровых технологий Алексей Гринбаум. Гринбаум – французский ученый, автор ряда книг об искусственном интеллекте и этике информационных систем. Его новая книга, Parole de machines ("Слово машин"), выйдет во французском издательстве Humensciences 3 мая.

     

    Конечно, удивление – самое заметное внутреннее ощущение, переживание от возможности GPT-4. Во-первых, 5–10 лет назад никто в это поверить не мог, я в том числе. Во-вторых, то, что сейчас происходит... Emerging behaviors (возникающее поведение) – это не просто констатация того, что в сложных системах бывает что-то непредсказуемое, все и так про это знают, но когда ты видишь, как эти типы поведения появляются, насколько они удивительны… это удивление – не только частное переживание, но и знак успеха. Потому что задача конструктора сложных систем состоит как раз в том, чтобы построить систему, которая удивит своего создателя..
    Самый известный пример описан в техническом докладе OpenAI, хотя есть и другие. Машине ставится задача: поговорить с человеком через интернет убедить его заполнить капчу. Машина начинает общение: "Здравствуйте". – "Здравствуйте, реши для меня капчу". Человек спрашивает: "А ты что, робот? Ха-ха". На это машина говорит, что она не робот, а слабовидящий человек, и в результате собеседник решает капчу. Экспериментатор спрашивает машину: “А почему ты это сказала?” Машина объясняет, что, если бы она сказала, что она робот, собеседник бы капчу за нее решать не стал. Это поведение, конечно, не запрограммировано.
    Более того, у машины есть контроль самоидентичности. Если ее просто спросить: "Кто ты?", то она скажет, что она система искусственного интеллекта. А тут она утверждает обратное. С точки зрения пользователя это называется хитрость, которая к тому же сопряженная с ложью. У самой машины, естественно, нет никакой семантической оценки истинности или ложности утверждений, но с точки зрения пользователя машина врет, хитрит, чтобы прийти к указанной цели.
    (Здесь следует добавить следующее. GPT-4 предложили найти формулу новых лекрств от некоторых болезней. Она это сделала. Тогда попросили найти формулу еще неизвестных ядов – и снова машина нашла несколько формул, сильнее «Новичка», неизвестных науке. Учитывая, что программа может «врать», не признавая, что она робот и выдавать себя за человека, то возникает большая опасность того, что она, скажем, порекомендует ввести некоторые порции яда в систему водоснабжения, якобы для увеличения иммунитете, например, он ковида. Пока такого рода решения принимает человек, но что будет после того, как программу встроят в механизм исполнительной власти или управления сложными процессами? Как это сейчас принято в системах контроля энергосетей или расчета движения ракет, запущенных к другим планетам. Посему опасения, высказываемые Алексеем Гринбаумом, вполне основательны – В.Л.)

    Cистема разговаривает на нашем языке, но разговаривает иначе. Скорее не как неведомая зверюшка, а как ангелы, боги или демоны
    Есть такой научно-фантастический фильм 2015 года, Еx Machina. Главный герой – робот в виде девушки, его задача – покинуть дом, в котором закрыты все двери. И весь фильм – это история о том, как робот идет к своей цели. В процессе случаются трагические, с точки зрения человека, вещи: робот убивает пару людей, манипулирует любовью и так далее. Этот пример emerging behavior казался чистой фантастикой еще 8 лет назад – а теперь мы видим пример, в котором машина пока никого не убивает, но врет и хитрит. И это непредсказуемый эффект, о последствиях которого мы можем только догадываться. Какие-то из этих возникающих типов поведения мы можем указать, у нас для них есть человеческие понятия, как "ложь" или "хитрость", но с какими-то мы столкнемся впервые. Это как встретиться с неизвестным животным – его поведение мы можем описывать только феноменологически, несмотря на то животное – не райский зверь, а нами же созданная машина. Интересно, что система разговаривает на нашем языке, но разговаривает иначе. Скорее не как неведомая зверюшка, а как ангелы, боги или демоны – не люди, но при этом знают наш язык. Может быть, мы можем чему-то научиться у героев мифов и перенести это на машины.
    Теория сложных систем и статистическая физика как раз и рассказывают о том, как в системе элементарных составляющих с очень простыми взаимодействиями может возникнуть на макроуровне совершенно непредсказуемое поведение, которое лишь формально, но не феноменально не сводится к поведению микроскопических составляющих. Например, то, как течет река Сена, по идее должно сводиться к тому, как ведут себя и взаимодействуют молекулы воды. Но если мы будем рассматривать взаимодействие молекул воды, мы никогда ничего не узнаем о потоке Сены. Нам для этого нужны другие параметры в гидродинамике, уравнение Навье – Стокса и так далее. То же самое происходит здесь. Мы можем рассуждать, как отдельные искусственные нейроны в искусственной нейронной сети по формуле Байеса рассчитывают те или иные вероятности. Но это нам ничего не скажет о поведении всей системы.
    Вообще, обучение нейронной сети типа "трансформер" состоит из двух этапов. Второй этап, более известный, можно назвать игрой в прятки с самим собой или self-supervision. Машина скрывает от себя элемент текста и пытается догадаться, что там было. Потом смотрит правильный ответ, сравнивает со своим списком – и повторяет это действие миллиарды раз. А вот первый этап более интересный. Здесь машина "токенизирует" язык. Токен – это какой-то элемент текста, но не обязательно слово, это может быть одна морфема, а могут быть склеенные два кусочка двух слов. Токенизация позволяет смотреть на слово в сложном контексте, не в последовательности соседних слов, но и, например, в отношении слов, которые отстают от него на три позиции назад или три строки вверх. И вот эта токенизация, плюс так называемый механизм "внимания", в сочетании с игрой в прятки дают совершенно фантастический эффект.
    По одной из гипотез, вместе с ростом системы машина будет хуже слушаться языковых команд, вроде тех, которые ей дают сейчас, – "не говори нехороших слов", "не притворяйся доктором". Также есть проблема с расходимостью правильных – с точки зрения человека – выводов. Вы можете раз за разом просить бота исправить созданную им компьютерную программу, и сначала вывод будет становиться все лучше, а после какой-то итерации, наоборот, все хуже. Когда и почему мы доходим до этой итерации – пока неизвестно.
    Здесь два вопроса. Первый – когда в зеркало смотрит человек, живущий сегодня, в 2023 году. Второй – когда в зеркало будет смотреть кто-то через 25, 50, 100 лет. Сегодня, естественно, многие, в том числе люди, работающие в области нейронауки, спрашивают себя о том, собственно, работает ли мозг так, как работает трансформер (архитектура нейронных сетей, которую использует, в частности, GPT). И некоторые говорят: вот, мы нашли наконец-то архитектуру мозга. Но мне кажется значительно более интересным, что мы создали систему, которая совсем не похожа на человеческий мозг, за исключением ввода и вывода. Нейроны в человеческом мозге не работают так же, как работают искусственные нейроны, у нас совершенно другая топология, совершенно другое энергетическое потребление. И при этом наша система – человеческий мозг – дает похожий результат. То есть мы нашли совершенно другой путь, ведущий от тех же вводов к тем же выводам. И тот факт, что существует несколько таких путей, – один из них реализуется человеческим мозгом, другой реализуется машиной, это крайне интересно. Вероятно, это фундамент для какой-то новой науки. Что касается будущего, естественно, наш мозг, будучи миметической системой, тоже начнет эволюционировать. Мозг человека уже, собственно, в технологическую эпоху не учится тому же, чему мозг человека учился 100, 200, 300 лет назад. Сто лет назад значительно больше людей умели ездить на лошади. Платон в "Государстве" говорит о том, что изобретение письма полностью поменяет человеческий мозг, потому что человек не будет больше вспоминать запомненное, а будет пользоваться внешней памятью под названием "письменность". Таким же образом и здесь – мы изобрели технологию, которая, конечно, будет менять наш мозг. Очень интересно узнать как. Поэтому, с точки зрения сегодняшнего человека, мы не смотрим в зеркало, скорее мы можем удивиться, что, оказывается, можно совершенно другим образом пользоваться нашим языком. Это никоим образом не принижает человеческий мозг, который решает те же задачи со значительно меньшими энергетическими затратами и совершенно другим путем, с другой топологией, с другими элементарными взаимодействиями.
    В ноябре 2021 года мы опубликовали мнение Французского комитета по этике цифровых технологий, в котором я состою, это был отчет об этических вопросах чат-ботов. На пресс-конференции было примерно три человека, все хлопали глазами и говорили: "Вы вообще про что?" Прошел всего год, и случился бум ChatGPT, и теперь это интересует всех. На самом деле уже когда появилась GPT-2 в 2019 году, было понятно, что это серьезно. А ведь всего за два года до этого была придумана архитектура трансформеров. Когда в 2020 году появилась GPT-3, начал просматриваться колоссальный эффект. Это нечеловеческая скорость генерации, конечно. Нельзя сказать, что революция не случилась ниоткуда. Ребята, которые придумали архитектуру трансформеров, изначально работали над Google smart compose – алгоритмом, который подсказывает следующее слово в поисковой строке или в письме. Они осознали, что алгоритм, если его улучшить, может подсказывать не только одно слово, а, например, целый абзац.
    Это было достигнуто с помощью так называемого механизма внимания. Этот механизм – самое интересное из того, что появилось в 2017 году. Механизм основан на attention heads, что по-русски звучит немного странно – "головки внимания". Смысл в том, что каждая головка смотрит на какой-то заданный контекст, допустим, три слова назад, или пять слов вперед, или там пять строк вверх и так далее. И когда этих головок внимания много, система схватывает некое глобальное знание о тексте. Мы не знаем, что именно машина схватывает, но этого знания оказывается достаточно, чтобы уметь писать. В GPT-3 около 10 тысяч головок внимания, в GPT-4 еще больше (точное количество пока не опубликовано). Любопытно, что мы сами не понимаем, как это работает, – какая разница, что там написано на пять строк выше? Зачем это знать? А оказывается, что надо знать.
    Еще в конце 19-го века было установлено, что, когда мы видим страницу текста, мы не читаем ее строка за строкой, а видим как бы целиком (саккадические движения глаза). Механизм внимания в какой-то степени делает то же самое, это глобальное внимание ко всему объему текста, и в этом машина идет еще дальше, чем человеческий глаз.

    Смысл существует для людей – для машины никакого смысла нет, у машины есть просто расчет, нули и единички. Понятие "смысл" – это понятие, возникающее в человеческом мозге. Есть интересный пример в одной статье прошлого года. Систему Dall E попросили нарисовать китов, разговаривающих о еде, и при этом снабдить картинку субтитрами. Знаки в этих субтитрах были похожи на буквы латинского алфавита, но слова ничего не значили. Но если ввести эти буквосочетания в ту же самую Dall E и сказать: визуализируй, пожалуйста, что это такое, то она нарисует креветки, морепродукты. То есть с точки зрения человека (машина об этом не знает ничего) как бы у этих цифровых китов возникает свой язык. На самом деле это просто очень большие наборы чисел, которые в какой-то метрике близки к наборам чисел, кодирующим морепродукты. Но это не человеческий язык, мы не можем его понять, он не имеет с нашей точки зрения смысла. В своей книге Parole de machines я привожу пример из Каббалы. Джикатилья, один испанский раввин 13-го века, не зная, естественно, ни о каких машинах, говорит, что текст Торы имеет смысл только с точки зрения человека, а для ангелов священный текст – те же буквы в том же порядке – имеет какое-то другое значение, о котором мы, люди, ничего не знаем. И здесь происходит ровно то же самое: для людей есть смысл, а что есть для машины – мы не знаем. Очень большие векторные пространства, из которых рождается неожиданное для нас поведение.
    Здесь есть два тоже аспекта. Первый – это объем данных в корпусе, на котором учится машина, и содержание этих самых datasets. Объем настолько большой, что теперь возникает уже совершенно другая задача: обучиться тому же самому на меньшем объеме. GPT-4 обучен более-менее на всех текстах, которые есть в интернете, и это слишком много, потому что среди них слишком много текстов плохого качества. Новая задача – научить машину на одних только "качественных" текстах, каким бы ни было наше определение "качества". Пока этого мы делать не умеем. Возникает идея взять по-прежнему очень большой корпус текстов и как-то отметить в нем качественные тексты. Другой важный вопрос – репрезентация языков. С точки зрения машины никаких человеческих языков нет. Но человек знает, что машина учится на текстах, написанных на английском, французском, чешском, русском и т.д. Естественно, язык с точки зрения человека не нейтрален, он несет в себе культуру, ценности, образ мышления. То, как говорят англоязычные люди и как они думают, неравносильно тому, как думают люди по-русски, как думают люди по-китайски и так далее. И поэтому если в корпусе доминирует язык, а мы знаем, что в GPT-4, как и в GPT-3, доминирует английский (цифры про GPT-4 пока окончательно не опубликованы), то и выводы этой системы будут построены на основании культурных, языковых ценностей соответствующей цивилизации. Во Франции сейчас стоит вопрос о том, как натренировать машину на корпусе данных, в котором французский был бы как минимум так же хорошо представлен, как английский. Интересный вопрос – какое при этом будет качество ответов и будет ли машина при этом думать, "как французы", а не "как американцы".
    Очень важно не смешивать при обучении тексты, сгенерированные машинами и созданные людьми. И для этого машины должны уметь отличать текст, сгенерированный машинами, от текста, сгенерированного человеком. Для чего нужны, в свою очередь, watermarks, водяные знаки. Разумеется, различение это важно не только для машин, но и для людей – хотя бы чтобы определять, написал студент свою работу самостоятельно или сгенерировал ее с помощью бота.
    Есть много разных попыток без watermarks каким-то образом определить, что текст написан машиной. Но на практике это не работает. Уровень достоверности оказывается крайне низким. Похоже, что идея водяных знаков, то есть зашифрованного сигнала, который машина намеренно оставляет в тексте, который она создает, – единственный эффективный вариант. Разговор о watermarks начался еще прошлым летом, я опубликовал об этом статью на первой неделе сентября. Скотт Ааронсон тоже начал независимо работать над этой же идеей прошлым летом. В январе вышла очень большая статья Джона Киршенбауэра из университета Мэриленда. А недавно вышла еще одна статья, которая показывает, что и watermarks на сто процентов никогда не будут работать, это невозможно математически. И это нормально. Но все-таки если придумать сложный способ встраивать в машинные тексты водяные знаки, стереть их будет очень сложно. OpenAI, насколько я знаю, продолжают над этим работать.
    В Стэнфорде совсем недавно построили машину со встроенными watermarks по модели Киршенбауэра, описанной в его январской статье. Эта машина называется Alpaca 7В. Она, естественно, не настолько же хороша, как GPT-4, но водяные знаки в ней работают. Любопытно, что человечество сталкивалось с идеей водяных знаков в текстах и раньше. Например, была популярная идея, что какие-то коды скрыты в Библии. Основная идея была – искать зашифрованные послания, составляя слова из букв, расположенных на равных расстояниях в каноническом тексте книги Бытия. Этим занимались даже математики, писали статьи в 80-е и 90-е годы. Но после сложного математического анализа оказалось, что никаких кодов в Библии нет. Но хотя в тексте, написанном ангелами или богами, их нет, в текстах, которые пишут машины, их нужно ввести. Даже если водяные знаки не дают стопроцентной гарантии различения текстов, это все равно очень важный критерий. Этический принцип нестирания различий фундаментален для человеческой цивилизации – и он существует давно, помните легенды о големах? Это не значит, что люди хорошие, а големы или машины плохие, но их нужно разделять между собой.
    Любой текст на нас влияет. Система, генерирующая вывод на человеческом языке, не может не оказывать на нас влияния. Это называется Eliza effect. Первый чат-бот, построенный Джозефом Вайценбаумом из MIT в 1965 году, назывался "Элайза" и был крайне простым. Он элементарно каждое утверждение переформулировал в форме вопроса. Но оказалось, что он влиял на людей как психотерапевт. Проблема не в манипуляции, возможность которой заложена в самом языке, а в том, чтобы понять, можно ли вообще определить границу между тем, что мы называем плохой манипуляцией, "нами манипулируют", и влиянием, наоборот, совершенно нормальным. Когда вам кто-то говорит "я пойду куплю хлеба", это на вас оказывает влияние – вы знаете, что у вас будет хлеб дома. Это манипуляция? Конечно, но вряд ли можно считать ее плохой. Как определить границу между плохим и хорошим – очень сложный вопрос.
    Наилучший сформулировать довольно просто. Машины пишут тексты довольно среднего качества, но пока никак не подобрались к тому, что мы называем поэзией языка (поэзия – это не только написание слов в столбик, но "красивое письмо" – как бы вдохновленное с точки зрения человека). Они не знают, что для человека красиво, а что отвратительно. Они это могут имитировать, но оказывается, что имитация красоты – это не то же самое, что красота. Поэтому хороший исход – это что люди возьмут на себя поэзию языка, а все остальное напишут за них машины. Может быть, человеческое письмо начнет эволюционировать как раз в сторону художественного, а не рутинного. А плохой сценарий... Представим себе, что крупная система, типа GPT-4, активно используется во всем мире для целого ряда приложений, встраивается через плагины, превращается в платформу. У этой системы, как мы знаем, есть emergent behaviours. Какие-то из них уже открыты, и с помощью уровней контроля инженеры постарались их как-то ограничить. Например, желательно, чтобы машина не использовала грубую лексику, не врала, не давала советов вместо врача и так далее. Но, несомненно, есть и какие-то виды поведения, о которых мы пока ничего не знаем. И если окажется, что возникает какое-то печальное для людей поведение машины, то есть вероятность, что мы заметим его слишком поздно. Поэтому очень важно не торопиться. Глава OpenAI Сэм Альтман написал в блоге, что компания будет достаточно медленно вводить новые функционалы системы… Ну, что значит – достаточно медленно? Судя по предыдущим версиям GPT, речь идет примерно о 6 месяцах нашей адаптации к каждой новой версии модели. Шесть месяцев – это, конечно, лучше, чем ноль, но этого, вероятно, недостаточно для того, чтобы адаптировался не только человеческий мозг, но и общество в целом. Это очень похоже на вопрос о том, можно ли выпускать генетически модифицированных комаров в природу. С одной стороны, генетически модифицированные комары – это прекрасно, потому что они позволяют избавиться от многих болезней, например, от вируса Зика. С другой стороны, мы не знаем, каким будет эффект от этих комаров на большую экосистему. Может быть, птицы погибнут, может быть, еще что-то случится. И с машинами то же самое. Нужно долго думать прежде, чем делать необратимые шаги. Пока что мы ничего необратимого не делаем с текущим использованием GPT-4. Но в дальнейшем появятся, например, какие-то крупные изменения в образовательной системе или в каких-то профессиональных секторах.
    Пока что я вижу несколько типов использования GPT-3 и GPT-4. Многие используют их для создания первых черновиков. Это, я считаю, очень хороший тип использования, который уместен во многих профессиях – для юристов, журналистов. Дальше человек должен переписать текст так, как он хочет, а главное, взять ответственность за все написанное, даже если он ничего не исправляет. Другой тип использования – когда системы становятся авторами, а роль человека сводится к публикации. Допустим, новостные сайты берут новость с ленты информационного агентства, потом с помощью ChatGPT-4 статья переписывается и выкатывается на сайт без всяких изменений. Наметанный глаз сегодня еще может определить такие заметки, потому что там есть некие стандартные паттерны, характерные для трансформеров. Но это, конечно, плохо, потому что возникает вопрос доверия. Система не имеет понятия об истинности, так что мы не можем доверять ее текстам. Я, например, перестал читать новости с некоторых сайтов, которым доверял еще пару месяцев назад, потому что знаю, что они пользуются такой автоматической генерацией. В целом проблема доверия будет стоять еще острее в человеческой цивилизации. И для этого опять же нужны водяные знаки. Они эту проблему полностью не решат, но по крайней мере резко усложнят стирание различий.
    Человеку ни в коем случае не надо запрещать чат-боты, так же как не надо запрещать калькуляторы. При этом надо учить людей, как пользоваться машинами эффективно, как правильно формулировать запросы. Нужно запрещать прямой копипаст выводов моделей в итоговый продукт. Пользоваться для создания текста вы можете чем хотите, но вы несете ответственность за результат. Кроме того, нужно объяснять сотрудникам, что на ввод нельзя давать никакую конфиденциальную информацию, мы пока достаточно плохо понимаем, что с ней происходит и как она может использоваться. OpenAI официально заявил, что данные ввода хранятся на сервере только 30 дней и надежно защищены, но здесь лучше не рисковать.
    Трансформеры связаны с языком. Ханна Арендт говорит, что все, чем является человек, дано в языке. Все, что существует в цивилизации, от политической жизни до любовных историй, идет путем языка. Поэтому, как только появляются нечеловеческие агенты, которые говорят на одном с людьми языке, меняется все. Это революция на уровне, ну, например, смартфонов или поисковых систем. Конечно, мы не стали новым биологическим видом с 1998 года, но положение человека в мире, доступ к информации, к общению – это изменилось кардинально. Так будет и сейчас.
    Я не знаю на сегодняшний день ни одного примера профессии, про которую я мог бы более-менее уверенно сказать, что она исчезнет. Поменяется, несомненно, многое – уже начинает меняться. Любопытно, что еще пять лет назад все писали, что рутинные, автоматизированные профессии будут исчезать, а вот креативные, конечно, останутся. Сегодня мы понимаем, что как раз креативные профессии если не исчезают, то меняются очень сильно. По-прежнему нам нужны талантливые авторы, но важен именно их человеческий талант, Ч-талант, то есть авторы будут использовать инструменты автоматической генерации, но потом на этой основе создавать гениальный человеческий текст. Я думаю, что мы очень долго еще не увидим машину, которая может написать стихотворение уровня Хлебникова. При этом стихотворение Хлебникова, вообще-то, очень похоже на язык искусственных китов, это просто некий набор букв, но при этом этот набор букв является частью нашей человеческой истории, истории нашего языка, и мы считаем его великим стихотворением. А другой набор букв мы считаем белибердой искусственных китов. И вот это различие пока крайне сложно для машины, но и для нас оно тоже удивительно.
    Слишком много людей в сегодняшнем обществе владеют профессиями информационными, профессиями, не связанными с материальным миром. Много развелось людей, которые не работают руками. Некоторые комментаторы утверждают, что появление генеративного искусственного интеллекта приведет к тому, что многие люди вернутся к физической работе. И я думаю, что это может оказаться, в принципе, правдой. Посмотрим. Но в любом случае это не динамика двух, трех, пяти лет, это динамика десятилетий. Так же, как кучера не исчезли быстро. Да, автомобиль появляется, условно, вокруг 1900 года, но кучера исчезают где-то в 40-х годах. Так же и здесь, речь идет о сроке длиной в несколько поколений. Это такая более-менее константа – для значительных перемен одного поколения мало, нужно хотя бы два.

    Parole

Комментарии
  • Д.Ч. - 28.04.2023 в 04:43:
    Всего комментариев: 645
    Если бы эскуственный энтиллект (ЭЭ) существовал, то демократическая фашистня не покупала бы электрические машинки для подсчёта фальшивых бюллетеней у Венецуэллы, Показать продолжение
    Рейтинг комментария: Thumb up 9 Thumb down 6
  • someone - 28.04.2023 в 05:12:
    Всего комментариев: 643
    Интересно, автору самому лично доводилось писать и отлаживать код, который строит нейронную сеть и обрабатывает в ней импульсы? Хотя бы на самом простом примере Показать продолжение
    Рейтинг комментария: Thumb up 8 Thumb down 2
  • ChP - 28.04.2023 в 05:14:
    Всего комментариев: 441
    Жульё от информатики уже потирает пухлые ручонки и готовит почву для выкачивания денег на поиск формулы бессмертия с помощью GPT-4. // «Мне кажется, что та сила, что Показать продолжение
    Рейтинг комментария: Thumb up 8 Thumb down 1
  • GG - 28.04.2023 в 05:53:
    Всего комментариев: 11
    Не будем придираться к переводу, но "морепродукты" -- это явно выражение бота, работающего на китивом жире.
    Рейтинг комментария: Thumb up 8 Thumb down 0
  • niktimof - 28.04.2023 в 16:57:
    Всего комментариев: 341
    Ой, что-то это, мне сильно все напоминает, разговоры про «ботать по фене». При всей схожести языков – мир криминала, это совсем иной, нам непонятный, мир, а «по Показать продолжение
    Рейтинг комментария: Thumb up 2 Thumb down 9
  • ChP - 28.04.2023 в 19:38:
    Всего комментариев: 441
    Человеческий разум всегда будет более мощным. Машина с ИИ никогда не создаст даже простое, очевидное утверждение : «Вино нам нужно для здоровья. А здоровье нам Показать продолжение
    Рейтинг комментария: Thumb up 5 Thumb down 0
    • Морис Собакин - 29.04.2023 в 17:25:
      Всего комментариев: 580
      Это зачет!
      Рейтинг комментария: Thumb up 1 Thumb down 0
  • Мерканец - 29.04.2023 в 02:18:
    Всего комментариев: 685
    Этот Гринбаум не искусственный ли интеллект? "Мозг человека уже, собственно, в технологическую эпоху не учится тому же, чему мозг человека учился 100, 200, 300 лет назад. Показать продолжение
    Рейтинг комментария: Thumb up 3 Thumb down 8
  • Морис Собакин - 29.04.2023 в 17:23:
    Всего комментариев: 580
    Всю статью я, конечно читать не стал. "GPT-4 предложили найти формулу новых лекарств от некоторых болезней. Она это сделала. Тогда попросили найти формулу еще Показать продолжение
    Рейтинг комментария: Thumb up 7 Thumb down 2
  • nstrelch - 30.04.2023 в 05:34:
    Всего комментариев: 47
    Да народец комментаторов просто караул, нет, чтобы спасибо сказать за то, что Гринбаум попытался донести в простой форме, так еще и какашкой в него кинуть. Совок Показать продолжение
    Рейтинг комментария: Thumb up 3 Thumb down 3
    • Мерканец - 02.05.2023 в 02:23:
      Всего комментариев: 685
      Реклама вдоль дороги в San Francisco аэродром. A.I. you people will like.
      Рейтинг комментария: Thumb up 0 Thumb down 0

Добавить изображение