💬 Илон Маск и технические руководители призывают «приостановить» разработку ИИ

Илон Маск и технические руководители призывают «приостановить» разработку ИИ 👑 Premium-робот: получай более 20-ти торговых идей в день!
Размер текста

Илон Маск и технические руководители призывают «приостановить» разработку ИИ

Более 2600 технологических лидеров и исследователей подписали открытое письмо, призывающее к временной «паузе» в дальнейшем развитии искусственного интеллекта (ИИ), опасаясь «глубоких рисков для общества и человечества».

Генеральный директор Tesla Илон Маск, соучредитель Apple Стив Возняк и множество генеральных директоров, технических директоров и исследователей ИИ были среди тех, кто подписал письмо, автором которого 22 марта был американский аналитический центр Future of Life Institute (FOLI).

Институт призвал все компании, занимающиеся искусственным интеллектом, «немедленно приостановить» обучение систем искусственного интеллекта, которые являются более мощными, чем GPT-4, по крайней мере на шесть месяцев, разделяя, среди прочего, опасения, что «человеческий конкурентный интеллект может представлять серьезную опасность для общества и человечества». :

Мы призываем лаборатории искусственного интеллекта временно приостановить обучение мощных моделей! Присоединяйтесь к призыву FLI вместе с Йошуа Бенжио, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus и более чем 1000 других, кто подписался: https://t.co/ 3rJBjDXapc Кратко о том, почему мы призываем к этому - (1/8) — Институт будущего жизни (@FLIxrisk) 29 марта 2023 г.

Мы призываем лаборатории искусственного интеллекта временно приостановить обучение мощных моделей! Присоединяйтесь к призыву FLI вместе с Йошуа Бенжио, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus и более чем 1000 других, кто подписался: https://t.co/ 3rJBjDXapc Кратко о том, почему мы призываем к этому - (1/8)

«Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не происходит», — говорится в письме института.

GPT-4 — это последняя версия чат-бота OpenAI на базе искусственного интеллекта, которая была выпущена 14 марта. На сегодняшний день он сдал одни из самых строгих экзаменов в средней школе и по юриспруденции в США в пределах 90-го процентиля. Считается, что он в 10 раз более продвинут, чем исходная версия ChatGPT.

Между фирмами, занимающимися ИИ, идет «неконтролируемая гонка» за разработку более мощного ИИ, который «никто — даже их создатели — не может понять, предсказать или надежно контролировать, утверждает FOLI.

ВАЖНО: распространяется петиция с призывом ПРИОСТАНОВИТЬ все основные разработки ИИ. Больше никаких обновлений ChatGPT и многих других. Подписано Илоном Маском, Стивом Возняком, генеральным директором Stability AI и тысячами других технологических лидеров. Вот разбивка: pic.twitter.com/jR4Z3sNdDw — Лоренцо Грин 〰️ (@mrgreen) 29 марта 2023 г.

ВАЖНО: распространяется петиция с призывом ПРИОСТАНОВИТЬ все основные разработки ИИ. Больше никаких обновлений ChatGPT и многих других. Подписано Илоном Маском, Стивом Возняком, генеральным директором Stability AI и тысячами других технологических лидеров. Вот разбивка: pic.twitter.com/jR4Z3sNdDw

Среди главных опасений было то, могут ли машины затопить информационные каналы потенциально «пропагандой и неправдой» и смогут ли машины «автоматизировать» все возможности трудоустройства.

FOLI сделал еще один шаг вперед в этих опасениях, предположив, что предпринимательские усилия этих компаний, занимающихся искусственным интеллектом, могут привести к экзистенциальной угрозе:

«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?»

«Такие решения не должны делегироваться неизбранным лидерам технологий», — говорится в письме.

Сегодня у меня есть немного экзистенциальной тревоги ИИ — Илон Маск (@elonmusk) 26 февраля 2023 г.

Сегодня у меня есть немного экзистенциальной тревоги ИИ

Институт также согласился с недавним заявлением основателя OpenAI Сэма Альтмана о том, что перед обучением будущих систем ИИ может потребоваться независимая проверка.

Альтман в своем сообщении в блоге от 24 февраля подчеркнул необходимость подготовки к роботам с искусственным общим интеллектом (AGI) и искусственным сверхразумом (ASI).

Однако не все специалисты по искусственному интеллекту поспешили подписать петицию. Бен Герцель, генеральный директор SingularityNET, объяснил в ответе Твиттера от 29 марта Гэри Маркусу, автору Rebooting.AI, что модели изучения языка (LLM) не станут AGI, разработка которых на сегодняшний день незначительна.

В целом человеческому обществу будет лучше с GPT-5, чем с GPT-4 — лучше иметь немного более умные модели. ИИ, занявший рабочие места людей, в конечном итоге принесет пользу. Галлюцинаций и банальностей станет меньше, и люди научатся их обходить. — Бен Герцель (@bengoertzel) 29 марта 2023 г.

В целом человеческому обществу будет лучше с GPT-5, чем с GPT-4 — лучше иметь немного более умные модели. ИИ, занявший рабочие места людей, в конечном итоге принесет пользу. Галлюцинаций и банальностей станет меньше, и люди научатся их обходить.

Вместо этого он сказал, что исследования и разработки должны быть замедлены для таких вещей, как биологическое оружие и ядерное оружие:

В дополнение к моделям изучения языка, таким как ChatGPT, для создания убедительных изображений, аудио- и видеообманов использовалась технология искусственного интеллекта. Эта технология также использовалась для создания произведений искусства, созданных с помощью ИИ, при этом высказывались некоторые опасения по поводу того, может ли она в определенных случаях нарушать законы об авторском праве.

Генеральный директор Galaxy Digital Майк Новограц недавно сказал инвесторам, что он был шокирован тем, насколько регулирующее внимание уделяется криптовалюте, в то время как искусственному интеллекту уделяется мало внимания.

«Когда я думаю об ИИ, меня шокирует, что мы так много говорим о регулировании криптовалюты и ничего о регулировании ИИ. Я имею в виду, я думаю, что правительство все перевернуло с ног на голову», — заявил он во время телефонного разговора с акционерами 28 марта.

FOLI утверждает, что если приостановить разработку ИИ не удастся быстро, правительствам следует ввести мораторий.

«Эта пауза должна быть публичной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий», — говорится в сообщении.

Ограничение / снятие ответственности (дисклеймер): Вся информация на этом сайте предоставляется исключительно в информационных целях и не является предложением или рекомендацией к покупке, продаже или удержанию каких-либо ценных бумаг, акций или других финансовых инструментов. Авторы контента не несут ответственности за действия пользователей, основанные на предоставленной информации. Пользователи обязаны самостоятельно оценивать риски и проконсультироваться со специалистами перед принятием каких-либо инвестиционных решений. Вся информация на сайте может быть изменена без предварительного уведомления.

Свежие новости по теме: Криптовалюта, NFT и криптобиржи

🚀