Тревога: опасность искусственного интеллекта
30-03-2023
-
- Более 1100 известных людей, в том числе Элон Маск, Стив Возняк, Yuval Noah Harari, и Тристан Харрис из Центра гуманитарных технологий, подписали открытое письмо, которое было опубликовано в Интернете во вторник вечером и которое призывает «все лаборатории искусственного интеллекта немедленно в течение как минимум 6 месяцев систем ИИ остановить все работы по ИИ, более мощные, чем GPT-4 ».
Письмо гласит:
Современные системы ИИ в настоящее время становятся конкурентоспособными человеческому мышлению в решении общих задачах, и мы должны спросить себя: следует ли нам позволять машинам наполнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе по исполнению законов ? Должны ли мы развивать искусственное сознание, которое в конечном итоге может превосходить, перехитрить, и заменить нас как нечто устаревшее? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Судьбоносные решения не должны быть делегированы не избранными никем «технологическим лидерам». Мощные системы ИИ должны быть разработаны только после того, как мы получим уверенность, что последствия принятых ими решения будут позитивными, а возможные риски будут находится под контролем.
В письме утверждается, что существует «уровень планирования и управления», который «не предсказуем», и вместо контроля над ИИ, в последние месяцы неназванные «лаборатории ИИ» были «замкнулись в себе в неконтролируемой гонке для разработки и развертывания все более мощных «цифровых умов», которые никто, даже не их создатели, не может понять, предсказывать или надежно контролировать».
Подписавшие письмо, в том числе некоторые эксперты по искусственному интеллекту, говорят, что запрашиваемая ими пауза должна быть "публичной и проверяемой, и включать всех ключевых акторов". Если такая пауза "не может быть быстро введена в действие, правительства должны вмешаться и установить мораторий на разработку ИИ", говорится в письме.
Конечно, письмо интересно, как из-за людей, которые его подписали - среди которых некоторые инженеры из Meta и Google, основатель и генеральный директор Stability AI Эмад Мостак, и люди, не связанные с технологиями, в том числе самопровозглашенный электрик и косметолог, - так и из-за тех, кто не подписал его. Например, письмо не подписал никто из OpenAI, компании, стоящей за большой языковой моделью GPT-4. Также никто не подписал из компании Anthropic, команда которого отделилась из OpenAI, чтобы создать "безопасного" чат-бота на искусственном интеллекте.
В среду генеральный директор OpenAI Сэм Альтман говорил с журналистами Wall Street Journal, сообщив, что OpenAI пока не начинает тренинг GPT-5. Альтман также отметил, что компания долгое время отдавала приоритет безопасности в разработке и потратила более шести месяцев на проведение безопасных тестов на GPT-4 перед его запуском. "В некотором смысле это письмо - это проповедь о вере и так верующим", - сказал он журналистам. "Мы, я думаю, говорим об этих вопросах безопасности громче всего, очень настойчиво и давно".
Действительно, Альтман в январе этого года говорил с редактором и утверждал, что "начинать [выпуск продуктов] сейчас имеет смысл, когда ставки еще относительно низкие, вместо того, чтобы выпускать то, что будет у всей отрасли через несколько лет, когда у общества не будет времени приспособиться новым условиям".
Недавно Альтман встретился с учёным в области компьютерных наук и популярным ведущим Лексом Фридманом и рассказал о своих отношениях с Маском, который был сооснователем OpenAI, но вышел из организации в 2018 году, ссылаясь на конфликт интересов. (Новый отчёт издания Semafor говорит, что Маск ушёл после того, как его предложение возглавить OpenAI было отклонено другими сооснователями, в том числе Альтманом, который стал CEO в начале 2019 года).
Маск, возможно, является наименее удивительным из авторов этого открытого письма, потому, что он много лет говорит о безопасности искусственного интеллекта, и в последнее время нацелил свой критический взгляд на OpenAI, утверждая, что компания не делает ничего для безопасности, а занимается пустыми разговорами. Фридман спросил Альтмана о недавних твитах Маска, в которых он регулярно осуждает организацию. Альтман ответил: «Очевидно, что Элон сейчас в Твиттере нападает на нас на нескольких фронтах, и я понимаю, что он его очень напрягает проблема безопасности AGI. Я уверен, что у него есть и другие мотивы, но это определенно один из них».
Однако Альтман добавил, что он находит поведение несколько Маска обидным. «Я, конечно, «вырос на Элоне», рассматривая его как своего героя. Несмотря на то, что он иногда ведёт себя в Твиттере как идиот или близко к тому, я рад, что он существует в нашем мире. Но я бы хотел, чтобы он больше присматривался к той сложной работе, которую мы делаем, чтобы всё было безопасно и надежно».
Мы всё ещё перевариваем это письмо (в то время как другие уже рвут его на куски и выбрасывают в мусорную корзину).
Вы можете прочитать письмо полностью здесь.
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Рейтинг комментария: 15 8
Рейтинг комментария: 10 13
Рейтинг комментария: 4 11
Рейтинг комментария: 13 9
Рейтинг комментария: 14 5
Рейтинг комментария: 10 7
Рейтинг комментария: 7 11
Рейтинг комментария: 6 17
Рейтинг комментария: 2 12
Рейтинг комментария: 8 1
Рейтинг комментария: 1 18
Рейтинг комментария: 9 2
Рейтинг комментария: 3 8
Рейтинг комментария: 0 0
Рейтинг комментария: 3 0
Рейтинг комментария: 2 6
Рейтинг комментария: 1 8
Рейтинг комментария: 0 0