Роботы-террористы и постправда: главные угрозы ИИ

Роботы-террористы и постправда: главные угрозы ИИ

В новом исследовании “Применение ИИ со злым умыслом” специалисты по искусственному интеллекту описали основные риски, связанные с развитием машинного обучения, а также способы их предотвращения. Над отчетом работало более 20 футурологов, экспертов по ИИ и правозащитников. Среди них представители Института будущего человечества, Центра изучения экзистенциальных рисков, Фонда электронных рубежей и лаборатории OpenAI, которую спонсирует один из главных сторонников регулирования ИИ Илон Маск.

Исследователи изучили возможные сценарии применения искусственного интеллекта в преступных целях в ближайшие пять лет. Большинство угроз, описанных в исследовании, связано со слежкой, нарушением приватности и искажением реальности. Алгоритмы на основе машинного обучения станут более дешевыми и доступными, и злоумышленники смогут автоматизировать многие задачи, которые раньше приходилось выполнять вручную.

В первую очередь автоматизация упростит направленные фишинговые операции. Собрать о человеке данные будет проще, чем когда-либо прежде, а сами атаки станут более завуалированными и изощренными. В прошлом останутся однообразные запросы от "друзей" с просьбой перевести деньги и фальшивые письма от банков, которые легко отличить от настоящих. Чатботы научатся имитировать манеру речи друга или родственника, а большие данные помогут втереться в доверие от имени банка или сервиса госуслуг. В исследовании эксперты также описывают применение ИИ для генерации фальшивого аудио- и видеоконтента.

О многих проблемах, описанных в отчете, недавно рассказывал специалист по соцсетям Авив Овадья. В интервью BuzzFeed он также описал чатботов-имитаторов и практику точечного фишинга. По мнению Овадьи, генерация убедительных фальшивок вызовет у людей апатию по отношению к реальности. Они перестанут проверять почту и прекратят обращать внимание на новости.

Авторы отчета допускают, что преступники используют существующие сегодня программы для своих целей. Например, алгоритм AlphaGo от DeepMind теоретически способен не только придумывать ходы в игре го, но и генерировать новые попытки взлома системы. Мощные хакерские атаки могут охватить тысячи компьютеров, а избавиться от вредоносного ПО можно будет только с помощью выкупа.

Другая технологическая угроза - это применение ИИ для слежки. Исследователи описывают зловещий сценарий в духе фильма “Особое мнение”. Системы слежки в интернете и в офлайне наблюдают за человеком и контролируют все его действия и публикации в сети. Любой, кто который решит протестовать против режима или критиковать правительство, может быть задержан. Причиной для ареста станет прогноз алгоритма, который увидел в человеке потенциальную угрозу. 

Ничто не помешает государствам с тоталитарным режимом воздействовать таким образом на меньшинства или на другие неугодные группы людей. Процесс уже можно наблюдать Синьцзян-Уйгурском автономном районе КНР, жители которого из-за своей национальной принадлежности и вероисповедания попали под пристальное внимание властей. Внимание выражается в слежке с использованием систем распознавания лиц и даже в сборе ДНК-анализов.

Один из описанных в отчете сценариев заслуживает серии в “Черном зеркале”. Террористы незаметно внедряют в число правительственных роботов-уборщиков машину, оборудованную бомбой. Робот оснащен системой распознавания лиц, которая помогает ему узнать премьер-министра. При встрече с главой государства устройство детонирует.

Отдельный пункт исследования посвящен рекомендациям, но, как отмечает MIT Technology Review, большинство из них абстрактны. Пока эксперты советуют обсуждать проблему, исследовать риски и уделять больше внимания этике при подготовке специалистов по ИИ.

Однако проблема технологии в том, что она уже получает широкое распространение и становится все более дешевой и повсеместной. Более того, злоумышленникам достаточно один раз потратиться на разработку или покупку ПО - и в дальнейшем его можно будет использовать тысячи раз без каких-либо затрат. Масштабируемость - одна из главных проблем ИИ, пишут футурологи. 

Но отчаиваться эксперты не советуют - надежда удержать ИИ в рамках пока есть. “У нас не было задачи нарисовать мрачную картину - можно придумать много вариантов защиты, и нам еще многому стоит поучиться. Наше исследование не описывает безнадежность ситуации. Оно призывает к действию”, - рассказал один из авторов исследования Майлз Брангейд.

Подпишитесь на наши новости
Лого www.SiteHere.ru
1970-01-01 03:00 http://news.xtipe.com/ru/news/15493

Смотрите так же

В Китае робомобилям доверяют в 2 раза больше, чем в США и Германии 1970-01-01 03:00

Международный аудиторский концерн TÜV Rheinland опубликовал результаты опроса, призванного выявить отношение потребителей из разных стран к безопасности автономного транспорта. Оказывается, водители в Китае больше доверяют производителям беспилотных автомобилей, чем их коллеги из США и Германии.

Tesla Model S обогнала по продажам в Европе BMW 7 и Mercedes S-class 1970-01-01 03:00

Впервые число проданных Tesla Model S в Европе превысило продажи премиум-модели от BMW, Audi и Mercedes-Benz. Европейские автоэксперты считают, что это серьезный сигнал для автопроизводителей. Мелкая, но во многом более предприимчивая компания, обгоняет европейцев на их же родине, пишет издание Automotive News Europe.

На продолжительность жизни потомства влияет возраст отцов 1970-01-01 03:00

Исследование Центра нейродегенеративных заболеваний Германии показало зависимость здоровья и продолжительности жизни потомства от возраста отцов. Такие данные были получены в результате эксперимента над лабораторными мышами.

Bigelow Space Operations займется торговлей орбитальными станциями 1970-01-01 03:00

Аэрокосмическая компания Bigelow Aerospace создала новое подразделение, которое займется бизнесом на низкой околоземной орбите. Новая организация Bigelow Space Operations будет продавать надувные орбитальные станции NASA, космическим агентствам из других стран, а также частным компаниям. Если BSO удастся найти клиентов, то МКС перестанет быть единственным аванпостом в космосе.

Китай впервые обошел США по объему инвестиций в ИИ-стартапы 1970-01-01 03:00

Согласно отчету компании CB Insights, в минувшем году мировые инвестиции в стартапы, разрабатывающие алгоритмы искусственного интеллекта, достигли $15,2 млрд. Из них 48% пришлось на Китай и только 38% - на США, сообщает MIT TechnologyReview.