КИБЕРПРЕСТУПНИКИ НАТРАВЯТ НА ВАС ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
Даже самые добрые и великие открытия в руках алчных и безнравственных людей могут стать настоящей проблемой и принести не мало проблем обществу. Последние успехи искусственного интеллекта заставляет нас задуматься о том, как обезопасить себя от киберпреступников и где кроются «камни», об которые мы можем споткнуться в будущем.
Представьте себе такую ситуацию. Вы получаете звонок/сообщение от родственника или близкого человека, который в этот момент путешествует за границей, где он уверяет Вас в том, что попал в сложную ситуацию: потерял кошелек (телефон, карту и т.д.) и просит Вас о помощи - выслать ему денег. Ранее, получив такое сообщение и будучи «подкованным» человеком Вы решили бы, что Вас пытаются «развести». Однако на этот раз никаких сомнений нет - Вы собственными ушами слышите голос своего знакомого. Вы не задумываясь переводите деньги, а это голос был сгенерирован при помощи искусственного интеллекта. Из соцсетей преступники получили необходимые сведения, в том числе и образцы голоса будущей жертвы. После этого - сформировали соответствующие голосовые сэмплы при помощи интеллектуального алгоритма.
Это пока вымышленный сценарий, успехи искусственного интеллекта делают такое развитие событий все более вероятным. Например, самообучающейся системе Google DeepMind AlphaZero потребовалось в общей сложности восемь часов, чтобы научиться обыгрывать людей в древнюю китайскую игру Go. Бесспорно, что схожие самообучающиеся алгоритмы могут быть весьма полезны в науке. Тут, как говориться - «палка о двух концах».
Отчет, опубликованный недавно исследовательской компанией OpenAI, «Злонамеренное использование искусственного интеллекта» показывает - с одной стороны, ИИ будет и дальше делать жизнь людей лучше, с другой, преступники будут эксплуатировать этот мощный инструмент, чтобы вредить другим.
Помимо угрозы приватной жизни людей злоумышленники могут угрожать их жизням. Куда более тревожные сценарии могут развернуться в мире где стремительно увеличивается количество дронов и других киберфизических систем, вроде беспилотных автомобилей или умных медицинских устройств.
Еще один пугающий способ применения искусственного интеллекта - влияние на умы людей.
Инструменты и алгоритмы, которые позволяют менять лица людей на видео, уже существуют. Первым начал использовать подобный алгоритм пользователь Reddit под логином Deepfakes, чтобы «приклеивать» лица голливудских звезд к телам поноактрис. Конечно, пока технология далека от совершенства, но рано или поздно поддельные видео станут неотличимыми от реальных. Любой человек сможет создать реалистичный видеоролик с участием любого другого человека. А теперь представьте себе, что может произойти если такой алгоритм попадет в руки преступников!
Эксперты OpenAI опасаются, что это приведет к окончательной потере какой бы то ни было истины. Представьте, что вам удалось запечатлеть чиновника, берущего крупную взятку. Такое видео больше не будет являться доказательством для обвинения в коррупции. Чиновник просто скажет, что это видео поддельное.
Скорее всего нам придется забыть о меняющих ход истории журналистских расследованиях. Искусственный интеллект способен бесповоротно уничтожить те немногие крупинки правды, которые еще существуют. А значит, миром будут править наиболее прожженные лжецы и негодяи.
Александр Григорьев ЦСО "Крокус"