💬 Мошенничество с глубокими темпами представляют собой угрозу для человечества - вот как дать отпор

Мошенничество с глубокими темпами представляют собой угрозу для человечества - вот как дать отпор 👑 Premium-робот: получай более 20-ти торговых идей в день!
Размер текста

Мошенничество с глубокими темпами представляют собой угрозу для человечества - вот как дать отпор

В прошлом году полиция Гонконга арестовала группу, ответственную за инвестиционную мошенничество в криптовалюту в размере 46 миллионов долларов, которая использовала технологию DeepFake. Группа сотрудничала с зарубежными мошенническими сетями для создания убедительных фальшивых инвестиционных платформ. Сегодня эти инструменты стали экспоненциально более продвинутыми, теперь они распространяются на видео, сгенерированное AI, которое развивается намного быстрее, чем любая другая форма медиа.

Злоусовный ИИ внесла более 12 миллиардов долларов США в виде глобальных потерь в результате мошенничества в 2024 году. Министерство внутренней безопасности США в настоящее время называет АИ-генерируемые Deepfakes «четкой, настоящей и развивающейся угрозой» для национальной безопасности, финансов и общества. Дания рассматривает возможность поправки в свой закон об авторском праве для борьбы с несанкционированными глубокими темпами, давая каждому человеку «право на свое тело, черты лица и голос».

Глубобы - это явно эскалационная социальная угроза. Чтобы защитить цифровой мир, нам нужно, чтобы ИИ проверялось, а модерация контента поддержала криптографическое доказательство, а не только доверие. Методы машинного обучения (ZKML) с нулевым знанием открывают новые способы доказать, что выходы действительны, не выявляя базовую модель или данные.

Текущая модерация сломана

Современная модерация контента борется за то, чтобы не отставать от манипуляции с ИИ. Когда кусок вредоносного контента загружается на нескольких платформах, каждая платформа должна независимо реклассифицировать этот дублированный контент, тратить вычислительные ресурсы и добавлять задержку.

Хуже того, алгоритмы и политики каждой платформы могут отличаться, и видео, которое помечено на одном сайте, может считаться доброкачественным на другом. Весь процесс не хватает прозрачности, и принятие решений AI платформ существует в «черном ящике». Пользователи редко знают, почему что -то было удалено или разрешено.

Этот фрагментированный подход к умеренности делает его более сложным для инструментов обнаружения хорошо работать. Одно исследование показало, что точность моделей обнаружения «резко падает» на аутентичных диких данных, иногда ухудшающихся до случайных догадков, когда сталкивается с новыми DeepFakes.

Предприятия тревожно подготовлены, и 42% компаний признают, что они лишь «несколько уверены» в своей способности обнаруживать глубокие фрагменты. Постоянно пересказное контент и погоня за новыми подделками-проигрышная битва. Нам нужно системное исправление, которое делает результаты модерации портативными, заслуживающими доверия и эффективными в Интернете.

Решение: проверка модерации

Машинное обучение с нулевым знанием (ZKML) предоставляет метод проверки решений на основе AI без дублирования работы или раскрытия конфиденциальной информации. Идея состоит в том, чтобы классификаторы ИИ производили не только этикетку, но и криптографическое доказательство этой классификации.

Представьте себе модель модерации, которая оценивает часть контента (изображение, видео, текст и т. Д.), И назначает ее одну или несколько метков (например, безопасные для работы, небезопасно для работы, насильственного, порнографического и т. Д.). Наряду с этикетками, система генерирует доказательство нулевого знания, подтверждающее, что известная модель ИИ обрабатывала контент и дала эти результаты классификации. Это доказательство включено в метаданные контента, что позволяет самому контенту нести значок модерации, наполненного подводным фактором. Производители контента или дистрибьюторы также могут быть криптографически связаны со статусом модерации своего контента.

Когда контент загружен или общий обмен, платформы могут мгновенно проверить доказательство, используя легкие криптографические проверки. Если доказательство является действительным, платформа доверяет предоставленной классификации без необходимости повторного запуска своего собственного анализа ИИ.

Преимущества модерации ZK

Давайте подумаем о преимуществах здесь. Проверка доказательства намного быстрее и проще, чем запуск большой модели ИИ при каждой загрузке. Во -первых, у нас есть портативность модерации контента, где его статус может путешествовать с ним. Мы также обеспечиваем прозрачность посредством открыто проверяемых результатов, позволяя любому проверять криптографическое доказательство и подтвердить, как был помечен контент.

В этом сценарии модерация становится единовременным вычислением на элемент контента, причем последующие проверки уменьшены до недорогих проверки доказательств. Все это превращается в огромную вычислительную сбережения, более низкую задержку в доставке контента и больше ресурсов искусственного интеллекта, чтобы сосредоточиться на действительно новом или спорном контенте.

По мере того, как контент, сгенерированный AI, продолжает взрываться, модерация с поддержкой ZK может обрабатывать шкалу. Этот подход освещает нагрузку на платформы, что позволяет модерации идти в ногу с большими объемами в режиме реального времени.

Уровень целостности для ИИ

Доказательства нулевого знания предоставляют недостающий уровень целостности, который потребляется модерация на основе ИИ. Они позволяют нам доказать, что решения ИИ (например, классификации контента) были приняты правильно, не выявляя чувствительных входов или внутренних органов модели. Это означает, что компании могут обеспечить соблюдение политики умеренности и делиться достоверными результатами друг с другом или общественностью, одновременно защищая конфиденциальность пользователей и собственную логику ИИ.

Внедрение проверки на уровне контента может превратить непрозрачные и избыточные модеральные системы в децентрализованную, криптографически проверяемую сеть доверия. Вместо того, чтобы полагаться на платформы, чтобы сказать «Доверяйте нашим фильтрам искусственного интеллекта», модерационные выходы могут поступать с математическими гарантиями. Если мы сейчас не интегрируем этот тип масштабируемой проверки, манипуляции и дезинформация, управляемая ИИ, могут подорвать последние клочки онлайн-доверия.

Мы все еще можем превратить умеренность ИИ из акта веры в акт доказательств - и при этом восстанавливают доверие не только на платформах, но и в информационных экосистемах, которые формируют публичный дискурс, выборы и наше общее чувство реальности.

Ограничение / снятие ответственности (дисклеймер): Вся информация на этом сайте предоставляется исключительно в информационных целях и не является предложением или рекомендацией к покупке, продаже или удержанию каких-либо ценных бумаг, акций или других финансовых инструментов. Авторы контента не несут ответственности за действия пользователей, основанные на предоставленной информации. Пользователи обязаны самостоятельно оценивать риски и проконсультироваться со специалистами перед принятием каких-либо инвестиционных решений. Вся информация на сайте может быть изменена без предварительного уведомления.

Свежие новости по теме: Криптовалюта, NFT и криптобиржи

🚀 📲