💬 Минэк указал на проблему ИИ, когда «10 минут доказываешь, что ты человек»

👑 Premium-робот: получай более 20-ти торговых идей в день!
Размер текста

Минэк указал на проблему ИИ, когда «10 минут доказываешь, что ты человек»

Читать источник В России существует проблема не всегда оправданного внедрения искусственного интеллекта (ИИ) в повседневные сервисы. Об этом на форуме «Цифра права» заявил директор департамента цифрового развития и экономики данных Минэкономразвития Владимир Волошин. «Звонишь в клинику и минут десять пытаешься доказать, что ты человек и что тебе нужен человек», — привел пример представитель ведомства.

В России существует проблема не всегда оправданного внедрения искусственного интеллекта (ИИ) в повседневные сервисы. Об этом на форуме «Цифра права» заявил директор департамента цифрового развития и экономики данных Минэкономразвития Владимир Волошин.

«Звонишь в клинику и минут десять пытаешься доказать, что ты человек и что тебе нужен человек», — привел пример представитель ведомства.

«Звонишь в клинику и минут десять пытаешься доказать, что ты человек и что тебе нужен человек», — привел пример представитель ведомства.

Выходом из ситуации Волошин видит создание экспериментальных правовых режимов (ЭПР), где компании могли бы апробировать методы обезличивания данных и работать с большими моделями в безопасной регуляторной среде. «Точно нужна механика, где компании, которые понимают, что сейчас вопрос ответственности очень важен, понимали [бы], каким путем двигаться. Если нет, мы по факту просто отстаем», — считает он.

Представитель Минэкономразвития также отметил, что российские компании практически не используют больших языковых моделей из-за несовершенства регуляторной среды и «страха перед ответственностью». По его словам, существующие правовые рамки скорее тормозят, чем стимулируют применение передовых технологий ИИ. «Вопрос о том, как нам работать с большими моделями, как делать это безопасно, стал как будто очень мало где применим», — заявил Волошин.

Он также пояснил, что бизнес «столкнулся с парадоксальной ситуацией»: регуляторы сместили баланс в сторону позиции «если ничего нет, то значит, это безопасно». На практике это приводит к повсеместным запретам, которые, по мнению Волошина, лишь ограничивают технологическое развитие, в то время как недобросовестные игроки ими не руководствуются.

В качестве примера спикер привел инцидент с беспилотным автомобилем в Петербурге, когда легкое ДТП потребовало созыва целой комиссии и долгого разбирательства. «Если бы это была обычная авария, то составили бы протокол и разошлись — все, вопросов нет. Но тут же у нас беспилотник, искусственный интеллект», — отметил он, подчеркнув, что существующие механизмы оказались чрезмерно сложными.

Волошин уточнил, что ситуация с ДТП привела к необходимости внести корректировки в ЭПР с беспилотниками, не указав, какие именно. «Из-за этого ДТП мы будем определенные корректировки вносить, потому что, когда мы описываем такие новые вещи в законодательстве, как искусственный интеллект, мы всегда думаем о самых крайних моментах, о самых сложных», — пояснил он. Читать источник

Ограничение / снятие ответственности (дисклеймер): Вся информация на этом сайте предоставляется исключительно в информационных целях и не является предложением или рекомендацией к покупке, продаже или удержанию каких-либо ценных бумаг, акций или других финансовых инструментов. Авторы контента не несут ответственности за действия пользователей, основанные на предоставленной информации. Пользователи обязаны самостоятельно оценивать риски и проконсультироваться со специалистами перед принятием каких-либо инвестиционных решений. Вся информация на сайте может быть изменена без предварительного уведомления.

Самые свежие Новости экономики

🚀