💬 Австралия вводит юридически необязательную структуру ИИ, чтобы помочь сформировать будущую политику

Австралия вводит юридически необязательную структуру ИИ, чтобы помочь сформировать будущую политику 👑 Premium-робот: получай более 20-ти торговых идей в день!
Размер текста

Австралия вводит юридически необязательную структуру ИИ, чтобы помочь сформировать будущую политику

В рекомендациях, опубликованных поздно вечером в среду, особое внимание уделяется управлению рисками, прозрачности, человеческому контролю и справедливости для обеспечения безопасной и беспристрастной работы систем ИИ.

Хотя стандарты страны не являются юридически обязательными, они разработаны на основе международных стандартов, в частности, стандартов ЕС, и, как ожидается, будут определять будущую политику.

Дин Лачека, вице-президент по аналитике компании Gartner, признал стандарты позитивным шагом, но предупредил о проблемах с их соблюдением.

«Добровольный стандарт безопасности ИИ — это хороший первый шаг на пути к тому, чтобы дать как государственным учреждениям, так и другим секторам промышленности некоторую уверенность в безопасном использовании ИИ», — сказал Лачека в интервью Decrypt.

«…Ограничения — это все хорошие передовые практики для организаций, желающих расширить использование ИИ. Но не следует недооценивать усилия и навыки, необходимые для внедрения этих ограничений».

Стандарты предусматривают процессы оценки рисков для выявления и минимизации потенциальных опасностей в системах ИИ, а также обеспечения прозрачности работы моделей ИИ.

Особое внимание уделяется человеческому контролю, чтобы не допустить чрезмерной зависимости от автоматизированных систем, а также справедливости, которая является ключевым фактором, призывающим разработчиков избегать предвзятости, особенно в таких областях, как занятость и здравоохранение.

В отчете отмечается, что непоследовательность подходов в разных частях Австралии создала путаницу для организаций.

«Хотя по всей Австралии есть примеры передовой практики, подходы непоследовательны», — отмечается в отчете правительства.

«Это вызывает путаницу в организациях и затрудняет понимание того, что им необходимо делать для разработки и использования ИИ безопасным и ответственным образом», — говорится в нем.

В рамках проекта подчеркивается принцип недискриминации и разработчикам предлагается гарантировать, что ИИ не будет способствовать сохранению предвзятости, особенно в таких деликатных областях, как занятость или здравоохранение.

Защита конфиденциальности также является ключевым направлением, требующим, чтобы персональные данные, используемые в системах искусственного интеллекта, обрабатывались в соответствии с австралийскими законами о конфиденциальности, защищая права личности.

Кроме того, для защиты систем ИИ от несанкционированного доступа и потенциального неправомерного использования необходимы надежные меры безопасности.

Под редакцией Себастьяна Синклера

Ограничение / снятие ответственности (дисклеймер): Вся информация на этом сайте предоставляется исключительно в информационных целях и не является предложением или рекомендацией к покупке, продаже или удержанию каких-либо ценных бумаг, акций или других финансовых инструментов. Авторы контента не несут ответственности за действия пользователей, основанные на предоставленной информации. Пользователи обязаны самостоятельно оценивать риски и проконсультироваться со специалистами перед принятием каких-либо инвестиционных решений. Вся информация на сайте может быть изменена без предварительного уведомления.

Свежие новости по теме: Криптовалюта, NFT и криптобиржи

🚀