Вс. Май 19th, 2024

Бум ИИ сопровождается развитием сервисов, раскрывающих его создание

Ожидается, что к концу этого десятилетия рынок искусственного интеллекта будет стоить десятки миллиардов долларов, и услуги по обнаружению ИИ являются растущей частью этой отрасли.

Когда в прошлом году в социальных сетях появилось видео, на котором, казалось бы, президент Украины Владимир Зеленский сдается России, Андрей Дороничев с беспокойством наблюдал за его распространением. Вскоре выяснилось, что ролик является компьютерным «глубоким фейком», но российский бизнесмен, живущий в США, увидел в нем опасный предвестник. Сейчас он руководит одной из новых компаний, которые предлагают инструменты для обнаружения контента, созданного сложными программами, известными как искусственный интеллект, сообщает New York Times.

Программы из категории генеративного искусственного интеллекта, которые создают различные результаты на основе инструкций пользователя, теперь доступны каждому. И они становятся все лучше и лучше, создавая текст, аудио, изображения и видео, которые кажутся творениями человека. Возможность введения общества в заблуждение вызвала обеспокоенность по поводу распространения дезинформации, потери работы, дискриминации, неприкосновенности частной жизни и более масштабных сценариев катастроф.

Развитие и возможности

Для таких предпринимателей, как Дороничев, нынешние события открывают новые возможности. Более десятка компаний с такими названиями, как Sensity AI, Fictitious.ai или Originality.ai, в настоящее время предлагают программы, позволяющие определить, является ли тот или иной текст или изображение творением искусственного интеллекта.

Дороничев основал компанию Optic в Сан-Франциско, Калифорния, которая стремится стать «рентгеновским аппаратом в аэропорту для цифрового контента». В марте компания представила веб-сайт, на котором пользователи могут загружать изображения, пытаясь определить, являются ли они фотографиями или работой генератора на основе искусственного интеллекта. Компания также работает над другими сервисами для видео и аудио.

«В будущем подлинность контента станет большой проблемой для всего общества», — считает Дороничев. «Мы вступаем в эпоху дешевых подделок», — добавил он, ссылаясь на термин deepfakes, который обозначает сгенерированные компьютером видеоролики с лицами реальных людей. По его словам, создание фальшивого контента сегодня не требует больших затрат и поэтому может осуществляться в больших масштабах.

Ожидается, что к концу этого десятилетия рынок искусственного интеллекта будет стоить десятки миллиардов долларов, и сервисы распознавания ИИ являются растущей частью индустрии. Сервис GPTZero, созданный несколько месяцев назад студентом Принстонского университета, сообщает, что более миллиона человек уже воспользовались им в попытке распознать сгенерированный компьютером текст. Проект CopyLeaks в прошлом году собрал 7,75 миллиона долларов, в том числе для расширения своего сервиса по обнаружению плагиата для школ и университетов.

Крупные технологические компании также принимают в этом участие. Компания Intel выпустила продукт под названием FakeCatcher, утверждающий, что он может идентифицировать глубоко поддельные видео с 96-процентным процентом успеха, в частности, путем поиска крошечных следов крови на человеческих лицах. А федеральное правительство США, исследовательское агентство Министерства обороны DARPA планирует заплатить почти 30 миллионов долларов проекту Semantic Forensics, который разрабатывает алгоритмы для автоматического обнаружения подделок.

Усилия по выявлению

По своей природе инструменты такого типа отстают от генеративных программ, результаты работы которых они пытаются идентифицировать. К тому времени, когда система защиты способна обнаружить работу нового чатбота или генератора изображений, разработчики уже работают над новой версией. «Это по своей сути состязательная игра, когда я работаю над детектором, а в это время кто-то создает лучшую мышеловку, лучший синтезатор», — говорит Хани Фарид, профессор Калифорнийского университета в Беркли, специализирующийся на цифровой криминалистике.

По словам экспертов, синтетически созданные видеоматериалы все еще относительно громоздки и легко распознаются, однако создание изображений и клонирование голоса находятся на высоком уровне. Для того чтобы отличить искусственный контент от реального, потребуются цифровые методы расследования, такие как обратный поиск изображений и отслеживание IP-адресов.

Фарид отмечает, что имеющиеся программы обнаружения ИИ тестируются на примерах, которые значительно отличаются от файлов, распространяемых «в дикой природе», где изображения циркулируют по платформам и со временем могут быть отредактированы различными способами. «Такое повторное использование контента усложняет задачу», — заявил он.

Одна из инициатив направлена на то, чтобы сделать создание генеративных систем очевидным с самого начала. Группа под названием Content Authenticity Initiative объединяет около 1000 компаний и организаций, включая компанию Adobe, выпускающую программное обеспечение, газету The New York Times и организации искусственного интеллекта, такие как Stability A.I. Вместо того чтобы пытаться отследить происхождение изображения или видео, группа настаивает на создании стандартов, которые позволят установить систему когнитивных маркеров, прикрепляемых к цифровым творениям по мере их создания. На прошлой неделе компания Adobe заявила, что ее генеративная служба Firefly будет прикреплять к своим продуктам «питательные этикетки» с указанием даты создания изображения и инструмента, который его создал.

По словам Джеффа Сакасегавы, который руководит деятельностью по обеспечению безопасности в проекте Persona, ориентированном на аутентификацию потребителей, проблемы, связанные с развитием искусственного интеллекта, находятся в зачаточном состоянии. «Эта волна набирает обороты. Она приближается к берегу. Я не думаю, что она еще не дошла до берега», — отметила она.

Добавить комментарий