Тревожные результаты исследований. Искусственный интеллект может способствовать преступности и терроризму.

Последние исследования не слишком оптимистичны в отношении развития искусственного интеллекта. Быстрое распространение таких инструментов, как дипфейки, может упростить работу преступников, мошенников и даже террористов.

Британские ученые опубликовали тревожное исследование. По их мнению, развитие ИИ может во многих отношениях способствовать облегчению преступной деятельности.

Исследователи Университетского колледжа Лондона (UCL) опубликовали тревожные результаты своего анализа. Они полагались на все более распространенные технологии, такие как дипфейки, быстрое развитие которых может значительно облегчить преступную и даже террористическую деятельность. По оценкам ученых, в ближайшие 15 лет появится как минимум 20 новых способов, с помощью которых ИИ может способствовать преступности. Это звучит довольно негативно, тем более что сам ИИ был создан для помощи человечеству. Великие творцы этого мира, такие как Стивен Хокинг или Илон Маск, долгое время считали, что ИИ в течение примерно десятка лет может оказаться самой идеальной человечиским изобретением. Проблема в том, что он слишком совершенен и идеален для использования в разных целях.

Кибербезопасность

Дипфейки звука и изображения

Хорошо, но что это за дипфейки, упомянутые в начале текста? Это инструменты, основанные на искусственном интеллекте, которые позволяют компьютерам помещать чье-то лицо на другого персонажа из определенного видео. Конечный результат уже выглядит очень и очень устрашающим. Достаточно взглянуть на видео ниже, где эта технология используется для «имплантации» лица Джима Керри в образ Джокера, которого играет Хоакин Феникс. Реалистично, правда? Настолько реалистично, что прогрессирующие технологии становится все труднее отличить, что является идеальным полем для распространения фальшивых новостей, непроверенной информации, пропаганды и многих других не очень позитивных материалов. Что еще шокирует, так это то, что уже появляются первые голосовые дипфейки, то есть инструментов которые позволяют вам использовать чужой голос в своем видео или аудио файле. Вы можете представить сочетание одного с другим? Это похоже на почти идеально структурированный инструмент для воздействия на людей и распространения конкретной информации.

https://youtu.be/-0OED73sRXs

У ученых нет хороших прогнозов

Ученым известны и другие способы, которыми ИИ может способствовать развитию преступной деятельности. Инструменты, основанные на искусственном интеллекте, могут быть использованы для взлома высокотехнологичной безопасности. Базами данных и различными системами можно манипулировать, автоматизированные машины вполне могут стать оружием. Вы знаете игру Watch_Dogs? Думаю многие слышали о ней, некоторые из того что там происходит пока невозможны, в т. ч. потому что дома практически ни у кого нет робота. Но, по мнению ученых, быстрое развитие ИИ может изменить все наоборот, и создания которые были сделаны что бы служыть человеку могут обернуться против него.

Подпишитесь на нашу рассылку!

Комментарии

Вы должны войти, чтобы оставить комментарий.

Похожие статьи