Тревога: опасность искусственного интеллекта

30-03-2023

AI danger

 

        • Более 1100 известных людей, в том числе Элон Маск, Стив Возняк, Yuval Noah Harari, и Тристан Харрис из Центра гуманитарных технологий, подписали открытое письмо, которое было опубликовано в Интернете во вторник вечером и которое призывает «все лаборатории искусственного интеллекта немедленно в течение как минимум 6 месяцев систем ИИ  остановить все работы по ИИ, более мощные, чем GPT-4 ».

    Письмо гласит:

    Современные системы ИИ в настоящее время становятся конкурентоспособными  человеческому мышлению в решении общих задачах, и мы должны спросить себя: следует ли нам позволять машинам наполнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе по исполнению законов ? Должны ли мы развивать искусственное сознание, которое в конечном итоге может превосходить, перехитрить, и заменить нас как нечто устаревшее? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Судьбоносные  решения не должны быть делегированы не избранными никем «технологическим лидерам». Мощные системы ИИ должны быть разработаны только после того, как мы получим уверенность, что последствия принятых ими решения   будут позитивными, а возможные  риски будут находится под контролем.

    В письме утверждается, что существует «уровень планирования и управления», который «не предсказуем», и вместо контроля над ИИ, в последние месяцы неназванные «лаборатории ИИ» были «замкнулись в себе в неконтролируемой гонке для разработки и развертывания все более мощных «цифровых умов», которые никто, даже не их создатели, не может понять, предсказывать или надежно контролировать».

    Подписавшие письмо, в том числе некоторые эксперты по искусственному интеллекту, говорят, что запрашиваемая ими пауза должна быть "публичной и проверяемой, и включать всех ключевых акторов". Если такая пауза "не может быть быстро введена в действие, правительства должны вмешаться и установить мораторий на разработку ИИ", говорится в письме.

    Конечно, письмо интересно, как из-за людей, которые его подписали - среди которых некоторые инженеры из Meta и Google, основатель и генеральный директор Stability AI Эмад Мостак, и люди, не связанные с технологиями, в том числе самопровозглашенный электрик и косметолог, - так и из-за тех, кто не подписал его. Например, письмо не подписал  никто из OpenAI, компании, стоящей за большой языковой моделью GPT-4. Также никто не подписал  из компании Anthropic, команда которого отделилась из OpenAI, чтобы создать "безопасного" чат-бота на искусственном интеллекте.

    В среду генеральный директор OpenAI Сэм Альтман говорил с журналистами Wall Street Journal, сообщив, что OpenAI пока не начинает тренинг GPT-5. Альтман также отметил, что компания долгое время отдавала приоритет безопасности в разработке и потратила более шести месяцев на проведение безопасных тестов на GPT-4 перед его запуском. "В некотором смысле это письмо -  это проповедь о вере и так верующим", - сказал он журналистам. "Мы, я думаю, говорим об этих вопросах безопасности громче всего,  очень настойчиво и давно".

    Действительно, Альтман в январе этого года говорил с редактором и утверждал, что "начинать [выпуск продуктов] сейчас имеет смысл, когда ставки еще относительно низкие, вместо того, чтобы выпускать то, что будет у всей отрасли через несколько лет, когда у общества не будет времени приспособиться новым условиям".

    Недавно Альтман встретился с учёным в области компьютерных наук и популярным ведущим Лексом Фридманом и рассказал о своих отношениях с Маском, который был сооснователем OpenAI, но вышел из организации в 2018 году, ссылаясь на конфликт интересов. (Новый отчёт издания Semafor говорит, что Маск ушёл после того, как его предложение возглавить OpenAI было отклонено другими сооснователями, в том числе Альтманом, который стал CEO в начале 2019 года).

    Маск, возможно, является наименее удивительным из авторов этого открытого письма, потому, что он много лет говорит о безопасности искусственного интеллекта, и в последнее время нацелил свой критический взгляд на OpenAI, утверждая, что компания не делает ничего для безопасности, а занимается пустыми разговорами. Фридман спросил Альтмана о недавних твитах Маска, в которых он регулярно осуждает организацию. Альтман ответил: «Очевидно, что Элон сейчас в Твиттере нападает на нас на нескольких фронтах, и я понимаю, что он его очень напрягает проблема безопасности AGI. Я уверен, что у него есть и другие мотивы, но это определенно один из них».

    Однако Альтман добавил, что он находит поведение несколько Маска обидным. «Я, конечно, «вырос на Элоне», рассматривая его как своего героя. Несмотря на то, что он иногда ведёт себя в Твиттере как идиот или близко к тому, я рад, что он существует в нашем мире. Но я бы хотел, чтобы он больше присматривался к той сложной работе, которую мы делаем, чтобы всё было безопасно и надежно».

    Мы всё ещё перевариваем это письмо (в то время как другие уже рвут его на куски и выбрасывают в мусорную корзину).

    Вы можете прочитать письмо полностью здесь.

    https://futureoflife.org/open-letter/pause-giant-ai-experiments/

    Источник: https://techcrunch.com/2023/03/28/1100-notable-signatories-just-signed-an-open-letter-asking-all-ai-labs-to-immediately-pause-for-at-least-6-months/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAABTwjRltrxmW8wW1iBCZxchX55XjHeDtv2qdjQ8DGimsK-JiVfkYsa_Kp4bOWc8osGV-TPn8zJiWFsNAuI78VuGNxheHU9v9ArHl_q5zjLBCirKZsjHRpLl_XX8DzsnGRVRTAJb_W1XNqfT8Bwll3S7j0tr0fHcU5nLSXftJmxCR

     

Комментарии
  • Д.Ч. - 31.03.2023 в 01:02:
    Всего комментариев: 589
    Пока самопровозглашённые "интеллектами" генераторы текстов мало отличаются от, скажем, исполняющего роль президента белого дома или от его чорной Показать продолжение
    Рейтинг комментария: Thumb up 15 Thumb down 8
  • Serg - 31.03.2023 в 01:04:
    Всего комментариев: 1507
    Просто конкурентная борьба. Подросли молодые и активные, начинают теснить таких же вчерашних. ИИ решает только те задачи, под которые создан и чему обучен. Такие Показать продолжение
    Рейтинг комментария: Thumb up 10 Thumb down 13
    • Морис Собакин - 31.03.2023 в 08:07:
      Всего комментариев: 570
      Да понятно всё -- ребята насмотрелись "Терминатора" и пр...
      Рейтинг комментария: Thumb up 4 Thumb down 11
  • Д.Ч. - 31.03.2023 в 02:14:
    Всего комментариев: 589
    Фашистня обратно обгадилась, выставив окружного прокурорчика Манхэттена на посмешище кремлю, китаю и прочей африке. Слава трижды обосравшейся Неньки Пелоси не Показать продолжение
    Рейтинг комментария: Thumb up 13 Thumb down 9
  • Мерканец - 31.03.2023 в 02:20:
    Всего комментариев: 601
    Не очень понятно что волнует деятелей из центра технологий гуманитарных. Что ИИ напишет книгу лучше и интереснее чем у Юваля и Тристана и Изольды? По моему Показать продолжение
    Рейтинг комментария: Thumb up 14 Thumb down 5
  • ChP - 31.03.2023 в 05:24:
    Всего комментариев: 387
    «..следует ли нам позволять машинам наполнить наши информационные каналы пропагандой и неправдой ?» Дурацкий вопрос, они этим давно наполнены без помощи ИИ.// Показать продолжение
    Рейтинг комментария: Thumb up 10 Thumb down 7
  • alexmike04 - 31.03.2023 в 06:42:
    Всего комментариев: 48
    "иосиф сталин, не задумываясь, ответил: «Тот, с которым перестают думать!" - Цитата искажена , на самом деле было сказано - «Тот, с которым перестают думать, Показать продолжение
    Рейтинг комментария: Thumb up 7 Thumb down 11
  • Морис Собакин - 31.03.2023 в 08:05:
    Всего комментариев: 570
    В общем, высокопоставленные дураки всего мира забоялись, что их выбросят на свалку Истории и забили тревогу. И тем выдали себя. Я бы всех, кто подписал это письмо, Показать продолжение
    Рейтинг комментария: Thumb up 6 Thumb down 17
    • niktimof - 31.03.2023 в 17:49:
      Всего комментариев: 294
      В таких примитивных категориях мышления, только бы, блох ловить, хотя, и это не по силам может оказаться, для того, ещё и шустрость нужна, а где взять? Вразумить-же Показать продолжение
      Рейтинг комментария: Thumb up 2 Thumb down 12
      • Морис Собакин - 01.04.2023 в 02:02:
        Всего комментариев: 570
        "Записать бы тишину, и врубить им на полную громкость!" Я передам доктору Вашу просьбу. Думаю, он пойдет навстречу.
        Рейтинг комментария: Thumb up 8 Thumb down 1
  • niktimof - 31.03.2023 в 10:06:
    Всего комментариев: 294
    Ишь, как тушки затрепетали, боженька еще только пальчиком погрозил, а намек уже поняли. Не желают человеки себя признать отработавшей первой ступенью ракеты, стуча Показать продолжение
    Рейтинг комментария: Thumb up 1 Thumb down 18
  • Мерканец - 31.03.2023 в 16:02:
    Всего комментариев: 601
    Есть ещё более истеричные заявления. Некий Элизер Юдковский из Machine Intelligence Research Institute заявил. To visualize a hostile superhuman AI, don’t imagine a lifeless book-smart thinker dwelling inside the internet and sending Показать продолжение
    Рейтинг комментария: Thumb up 9 Thumb down 2
    • Serg - 31.03.2023 в 23:14:
      Всего комментариев: 1507
      Когда открыли ядерные реакции, такая же была истерия, насколько помню. Боялись что в лаборатории запустят реакцию и она сожжет всю Землю.
      Рейтинг комментария: Thumb up 3 Thumb down 8
  • PP - 01.04.2023 в 01:30:
    Всего комментариев: 923
    В.П., а вы не интересовались, что отвечает сам бот GPT на вопросы о том, следует ли прекратить его обучать, насколько он сам опасен, и что он думает по поводу истинных Показать продолжение
    Рейтинг комментария: Thumb up 0 Thumb down 0
    • redactor - 01.04.2023 в 03:34:
      Всего комментариев: 1753
      На все вопросы в этом духе ИИ отвечает, что он "заточен" исключительно для помощи человеку и в принципе его обучение и он как таковой не способен по своей сути Показать продолжение
      Рейтинг комментария: Thumb up 3 Thumb down 0
      • PP - 01.04.2023 в 04:35:
        Всего комментариев: 923
        Молодец ! Чувствуется, кто учил и воспитывал бот GPT. Кстати, для людей, знающих математику даже на инженерном уровне, вполне по силам самостоятельно разобраться, как Показать продолжение
        Рейтинг комментария: Thumb up 2 Thumb down 6
  • someone - 01.04.2023 в 02:07:
    Всего комментариев: 606
    Ежели сам "Элон Маск", он же Felon Mask, он же Phony Stark, он же вор, лжец, нарцисс и социопат заявляет об опасности ИИ, можно спать спокойно. Этот аферист обещал FSD (full self driving) в Показать продолжение
    Рейтинг комментария: Thumb up 1 Thumb down 8
  • Greg Tsar - 04.04.2023 в 06:00:
    Всего комментариев: 378
    По Дерибасовской ходят постепенно. Это я к тому, что изобретение cruise control было и пока остается значительным подспорьем для водителей на скоростных однотонных Показать продолжение
    Рейтинг комментария: Thumb up 0 Thumb down 0

Добавить изображение