Кибер-МАГАТЭ: как обуздать опасный искусственный интеллект

Кибер-МАГАТЭ: как обуздать опасный искусственный интеллект

Ng Han Guan/AP

Пандемия коронавируса доказала, что искусственный интеллект и другие элементы четвертой промышленной революции могут служить на благо человечества, но для широкомасштабного внедрения подобных технологий в мире должны появиться единые стандарты, пишет издание Project Syndicate. «Газета.Ru» пообщалась с экспертами и выяснила, с какими проблемами столкнутся люди, если разные страны не смогут договориться между собой.

Кибер-МАГАТЭ: как обуздать опасный искусственный интеллект

Из-за пандемии коронавируса преимущества от внедрения киберфизических систем в общественно-экономическую сферу стали очевидны, причем во многих областях одновременно. Например, некоторые ученые используют системы искусственного интеллекта (ИИ) для выявления новых вспышек коронавируса.

Ряд экспертов в области внедрения киберфизических систем считает, что вся эта отрасль может сыграть на руку человечеству, предложив решение множества проблем, и эта историческая возможность выпала именно сейчас, из-за коронакризиса. В частности, такое мнение выразили профессор и содиректор школы глобального менеджмента Thunderbird Университета штата Аризона Ландри Сигне, декан той же школы Санджив Каграм и соучредитель Nexus FrontierTech Марк Эспозито в статье для Project Syndicate.

В своей статье эксперты привели пример Южной Кореи, где уже сейчас на 10 тысяч рабочих приходятся 774 робота, и многие другие азиатские страны тоже могут похвастаться успешными кейсами внедрения инноваций (например, Япония, уверенно идущая к лидерству в области автономного транспорта).

Но есть и другие случаи, угрожающие активному развитию соответствующих отраслей во всем мире. Самый яркий из них – кризис в отношениях США и Китая, который то и дело переносится на вопросы внедрения новых технологий. Сюда можно отнести запреты и угрозы в отношении сотрудничества с Huawei и ZTE, беспрецедентный случай с продажей TikTok американской Oracle из-за давления со стороны Дональда Трампа, обвинения в том, что Китай ворует американскую интеллектуальную собственность и так далее. В результате

вопросы, касающиеся новых технологий, вышли далеко за пределы фундаментальной науки, инноваций и экономики, обретя геополитический окрас и теперь активно обсуждаются в разрезе национальной безопасности.

Авторы статьи приходят к выводу, что избежать подобных проблем можно только через усиление координации между частным сектором и государством, а так же широкое участие в решении подобных вопросов многосторонними учреждениями, то есть, по сути, международными организациями. В противном случае, утверждают авторы статьи, серьезных ошибок и низкоэффективных решений при реализации соответствующих программ никак не получится избежать.

Никто не знает, о чем говорить

В беседе с «Газетой.Ru» директор по экономической политике ВШЭ Юрий Симачев сказал, что создание единых мировых стандартов при разработке и внедрении новых киберфизических систем было бы очень выгодно для всех стран с экономической точки зрения. Но у этого пути есть масса проблем, и они начинаются с того, что

еще до пандемии мир фактически разочаровался в глобализации, что привело к активизации процессов регионализации экономики: страны стали больше замыкаться на построении взаимовыгодных отношений с ближайшими в территориальном смысле партнерами, а созданные ранее всемирные организации начали заметно уступать во влиянии региональным экономическим блокам.

В таких условиях выработать единые стандарты практически невозможно, уверен Юрий Симачев, поэтому в отношении того же искусственного интеллекта это максимум будут общие тезисы вроде «не навреди». Дело в том, что создание тех же международных правил, единых для всех – крайне трудоемкий процесс, в результате которого все-равно не получается учесть интересы всех его сторон.

«Искусственный интеллект – это всегда некоторая развилка между интересами человека и интересами общества, и она решается везде по-разному. Вот, например, берем технологии киберслежения. Есть штаты в Америке, где запрещены эти технологии, а в других странах (вроде Гонконга) общество поддерживает их применение, потому что больше порядок, больше безопасность», – объясняет эксперт.

Пока существуют подобные проблемы, создавать новые международные организации в качестве регулирующих инструментов, по сути, бесполезно, уверен Юрий Симачев. Эксперт обратил внимание на то, что

с той же ВТО сейчас очень много проблем, и она стала невыгодна как догоняющим, так и самым развитым странам в мире. При этом организация не решает накопившиеся в мире противоречия, а ее апелляционный орган еще с конца прошлого года де-факто парализован из-за того, что в него не могут назначить новых арбитров.

Вице-президент «Сколтеха» в области искусственного интеллекта и математического моделирования Максим Федоров в беседе с «Газетой.Ru» обратил внимание на еще одну базовую проблему: выработать единые стандарты сейчас попросту невозможно из-за того, что фактически инициаторы таких идей зачастую говорят друг с другом на разном языке.

«У нас экспоненциально растет скорость передачи данных, соответственно, сейчас на слуху связанные с анализом больших данных и машинным обучением технологии, из-за чего в массовом сознании и в головах различных управленческих кругов по всему миру сформировался некий мем, но никто с точностью не может объяснить, что такое искусственный интеллект. В мире вообще используется более ста определений этого термина», – сказал эксперт, отметив, что в том виде, в котором ИИ существует сейчас, его можно описать скорее как некий связанный с информационно-коммуникационным сектором набор технологий.

По словам эксперта, проблема разных подходов хотя бы к терминологии существует и в профессиональном обществе. В результате получается, что

вопросы регулирования отрасли пытаются обсуждать люди, которые часто уходят в философские рассуждения о том, можно ли считать искусственный интеллект разумом, и при этом мало кто из них реально хоть раз создавал подобные системы на практике.

«Как эти вопросы могла бы курировать условная кибер-ВТО, тоже не совсем понятно: на данный момент в мире существуют всего несколько технических сообществ, которые договорились внутри себя, но это – всего лишь небольшие островки понимания», – говорит эксперт.

В качестве примеров таких «островков» Максим Федоров привел ООН, которая обсуждает связанные с внедрением киберфизических систем на уровне ЮНЕСКО, Международную организацию по стандартизации (ISO), недавно открывшую соответствующий комитет, и Институт инженеров электротехники и электроники (IEEE), который первым написал этические принципы конструирования автономных и интеллектуальных систем. В целом, по мнению эксперта, организация, регулирующая целую отрасль киберфизических инноваций, должна быть чем-то вроде кибер-МАГАТЭ (Международное агентство по атомной энергии).

Все запретить

Вопрос безопасности людей становится все более актуальным в связи с ускорением внедрения искусственного интеллекта и робототехники. Ближайшая аналогия, которая напрашивается сама собой – повсеместные запреты клонирования человека. В 2005-м году ООН приняла соответствующую декларацию, рекомендовав странам-участницам организации запретить все формы такой деятельности. Причем некоторые страны по собственной инициативе опередили ООН. Среди них была и Россия: у нас временный запрет на клонирование человека был принят Госдумой в апреле 2002-го года, а в 2010-м ограничение продлили до вступления в силу соответственного федерального закона.

В беседе с «Газетой.Ru» Максим Федоров призвал не идти по пути полного запрета любых не до конца понятных широким слоям населения технологий.

«Понятно, что есть люди вроде тех же амишей, которые живут в простоте и не признают большинство современных технологий. Но в целом боязнь новых технологий, в том числе искусственного интеллекта, к сожалению идет от недостатка технического образования, причем зачастую это касается и людей в высоких кабинетах»,

– сетует эксперт.

С ним в целом согласился и Юрий Симачев из ВШЭ. Он отметил, что любые прямые запреты приводят только к тому, что определенные страны, в которых нет аналогичных ограничений, начинают выигрывать от этого, и в них начинают переезжать заинтересованные в работе над такими технологиями ученые.

И все же есть некоторые технологии, на которые уже сейчас нужно обратить пристальное внимание, считает Максим Федоров. В качестве примера он привел различных роботов, способных общаться с людьми. Дело в том, что людям свойственно «подсаживаться» на такие вещи, они проявляют к ним сильную эмпатию, в то время как на деле роботы могут только симулировать взаимность, если это прописано в их коде. Из-за этого у людей могут возникать психические расстройства, и в этом смысле показателен пример Японии, где некоторые люди даже регистрируют брак с человекоподобными машинами.

В разных странах могут диаметрально отличаться подходы к регулированию этой сферы. Так, в Китае предпочитают сначала что-то разработать, а потом уже разбираться, как это регулировать. В Евросоюзе, наоборот, принято относиться к подобным вещам более консервативно.

Большую опасность несет в себе и чрезмерное увлечение внедрением подобных технологий в производство товаров, от который может непосредственно зависеть человеческая жизнь.

Максим Федоров отметил, что если система в какой-то момент «сойдет с ума», то последствия могут быть фатальными. Причем уже сейчас активно развиваются методы атак на цифровые системы через данные, то есть, тем же нейросетям «скармливают» массив информации, который вызывает у нее программные сбои.

Таким же угрозам могут быть подвержены и программы, управляющие производственными линиями на фармацевтических заводах. При сбое программа может намешать лекарства, способные убить человека, и это может быть выявлено уже после того, как ими отравятся.

Схожая проблема была и у программного обеспечения, установленного на пассажирские самолеты Boeing 737 MAX. Внедренная компьютерная программа MCAS, главная задача которой – опускать нос самолета при его чрезмерном задирали в воздухе за последние два года привела к череде смертельных авиакатастроф.

Кто и как должен нести ответственность в подобных ситуациях – тоже серьезная тема для дискуссий. Максим Федоров отметил, что некоторые крупные технологические компании даже пытаются проталкивать идею наделения искусственного интеллекта и роботов правовой ответственностью. То есть, если машина кому-то навредила, именно она и должна понести наказание. И по сути это звучит так же странно, как и теоретически может выглядеть: если программа нанесла вред человеку, следуя этой логике, отвечающие за исполнение наказаний органы должны уничтожить жесткий диск или флешку, на котором она записана.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *