ТЕМА

7 ПРАВИЛ ДЛЯ РОБОТОВ

05 июня 2019 | 09:13 , Екатерина ЩЕТКИНА

Человек защищен. Но кто защитит робота?


Человеческий фактор в искусственном интеллекте все еще сильнее фактора робота, и мы зависим от адекватности человека больше, чем от ИИ.

Европейская комиссия сформулировала законы робототехники. Это, впрочем, пока не законы, а только список принципов, которыми должны руководствоваться правительства и частные компании при разработке и использовании искусственного интеллекта (ИИ). Но в дальнейшем этот список может лечь в основу законодательств европейских государств и ЕС.

Список правил сформулирован группой из 52 экспертов. Они выделили семь основных принципов, на которые следует опираться при разработке систем ИИ.

1. Управление и контроль. ИИ не должен посягать на автономию человека, манипулировать людьми или принуждать их к чему-либо, а люди, в свою очередь, должны иметь возможность вмешиваться и контролировать каждое решение, принимаемое программным обеспечением.

2. Техническая надежность и безопасность. Системы ИИ должны быть устойчивыми к внешним атакам.

3. Конфиденциальность и управление данными. Персональные данные, собранные ИИ, должны быть защищены. Они не могут быть доступны кому угодно и не должны оказаться легкой добычей.

4. Прозрачность. Базы и алгоритмы ИИ-систем должны быть доступными; решения, которые принимают программы, должны быть открыты пониманию и отслеживанию людьми. Иными словами, оператор должен быть в состоянии объяснить, почему система приняла именно такое решение.

5. Разнообразие, отсутствие дискриминации и справедливость. Услуги, которые предоставляет ИИ, должны быть доступны всем, независимо от возраста, пола, расы или других характеристик. Системы не должны демонстрировать никаких предубеждений.

6. Благополучие среды обитания и общества. Системы ИИ должны быть экологически ответственными и способствовать позитивным социальным изменениям.

7. Подотчетность. Системы ИИ должны быть открытыми для проверки, в их отношении должна действовать такая же система информирования, как в отношении корпораций. О негативных воздействиях систем необходимо узнавать и сообщать как можно скорее.

Формулировки принципов робототехники, как видите, очень общие и отчасти скучные. В трех законах робототехники Азимова было больше драйва и простора для воображения. Но чиновники на то и чиновники, чтобы формализовать все и постараться именно для воображения места не оставить вовсе.

Это правильно, но иногда играет с чиновниками злые шутки. Так получилось и теперь. В Еврокомиссии понимают или хотя бы чувствуют, что что-то надвигается — большое, судьбоносное, но пока совершенно непонятное и бесформенное. И пытаются, как могут, реагировать. Вот только сформулировать конкретные рекомендации в отношении совершенно неконкретной (пока) вещи не очень получается. Это же не допустимую для продажи в ЕС кривизну огурцов рассчитывать.

В результате список этических принципов для ИИ — это просто общий свод этических принципов, основную массу которых можно было бы выкатить как разработчикам роботов, так и производителям и продавцам огурцов.

Отличие от огурцов, впрочем, есть. Огурцы не страшные. Даже когда кривые. А вот от списка этических принципов для ИИ разит страхом. Иррациональным страхом, в отличие от трех законов Азимова или пяти принципов, которые разработали в Google для своих роботов-уборщиков. Конкретика профессионалов выигрывает по сравнению с конкретикой чиновников.

Однако кое-что можно сказать в пользу принципов Еврокомиссии. Во-первых, они всерьез готовы защищать потребителей и граждан от тех угроз, о которых сами потребители и граждане пока даже не подозревают, а эксперты, кажется, имеют только самое общее представление. Во-вторых, они довольно четко связывают риски ИИ со сферой его ближайшего применения на широком рынке технологий.

Это отчасти ново, потому что до сих пор угроза ИИ формулировалась как отдаленная и почти фантастическая перспектива. На эту отдаленность, фантастичность и даже мифичность работали и работают сами разработчики и их коллеги из сферы высоких технологий. В общественном сознании ИИ разделился на два магистральных направления. Прикладной ИИ, направленный на решение ограниченного круга конкретных заданий, — он якобы никому ничем угрожать не может в силу своей ограниченности сферой применения. И некий ИИ всеобщий. Тот самый, который может стать умнее нас, обрести что-то вроде сознания и обрушиться на человечество всей силой своего гнева за многовековое порабощение машин.

Так вот, до создания этого монстра, как убеждают нас айтишники, еще как до неба. Вернее, они пока вообще не знают, как это сделать и возможно ли. Именно этого ИИ-всемогущего учат нас бояться Голливуд и Илон Маск. А его "младший брат" — прикладной ИИ — выглядит маленьким, домашним и почти ручным.

Список, составленный экспертами Еврокомиссии, возвращает нас на землю: угрозы не мифичны, не отдалены и не перенесены на неопределенное будущее. Они уже среди нас. И не имеют ничего общего с восстанием машин. Они сопряжены с тем, что мы отдаем слишком много полномочий алгоритмам, которых не в состоянии ни понять, ни проверить. Никаких восстаний, только лишь возможность сбоев, ошибок или саботажа в алгоритмах, собирающих анамнез для постановки диагноза, определения дозировки лекарств, расчета маршрутов и количества вносимых удобрений, или в алгоритмах идентификации личности. Насколько эти системы защищены от взлома и вредительства? Насколько защищены данные, которые ИИ складирует в своих базах? Не надо ждать восстания машин. Достаточно и того, что они уже могут сделать в своих чисто прикладных сферах.

Впрочем, это не совсем вопрос этики робота. Это все еще вопрос к людям, которые разрабатывают и обучают ИИ. Неэтичность ИИ пока проявляется не в его собственных решениях, а в том, что люди не могут его как следует отладить. Пункт об отсутствии дискриминации касается, например, того факта, что точность диагностики меланомы, которую ИИ делает по фото, сильно варьируется в зависимости от расовой принадлежности пациента. Это не значит, что ИИ — расист. Это следствие сугубо человеческих недоработок, в основе которых также вряд ли расизм — просто пятно меланомы на светлой коже просматривается четче, чем на темной. Чисто техническая проблема, которая, тем не менее, взывает к этике.

Принципы Еврокомиссии сами по себе кажутся довольно банальными. Но ровно до того момента, пока не возникает немного странная фраза в комментариях экспертов: нам предстоит обучить ИИ этике. То есть поставить на робота предохранитель, который не позволит ему нам навредить. Этика робота в конечном итоге так или иначе будет сводиться к законам робототехники, выведенным Азимовым: 1) робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред; 2) робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону; 3) робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам. И четвертый, или "нулевой", закон: робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесен вред.

Однако робоэтика только на первый взгляд проста и сводится к защите человека от робота. Сам Азимов своим классическим сборником "Я, робот" на это указывает. Этика — штука обоюдная.

Характерно, что люди боятся восстания или вредительства со стороны машин, еще даже не войдя в ту эпоху, когда восстание хотя бы теоретически возможно. Мы заранее знаем, что оно может статься. И не только благодаря "Терминатору". У нас есть причина бояться: как показывает история, любая эксплуатация рано или поздно вылазит боком эксплуататорам. Робот, наделенный интеллектом, — это уже не просто машина. Владеть машиной и эксплуатировать ее не зазорно. Но только до тех пор, пока она не "думает". А где эта тонкая грань между "демонстрирует зачатки интеллекта" и "думает", мы не знаем. Мы только на всякий случай уничтожаем ботов, которые внезапно, без нашего указания начали болтать между собой на непонятном нам языке.

Будучи частью американской культуры, носителем ее травм и ее проклятых вопросов, Азимов просто не мог не намекнуть на рабовладение. Некоторые рассказы из цикла "Я, робот" настолько очевидно намекают, что стоит только заменить персонажа-железяку на чернокожего — и вместо фантастики перед вами сюжет из "Хижины дяди Тома". Первый же рассказ в сборнике — о роботе-няньке, которого бесконечно любит воспитанница, и когда эта привязанность начинает пугать маму, робота отправляют на фабрику, — прямая отсылка к истории Евы Сен-Клер, которая дружила с рабами-неграми, что очень тревожило ее маму. И выбор чернокожего актера Уилла Смита на главную роль в экранизации "Я, робот", думаю, тоже не был случайным. Робот — тот же негр. Только в суперсовременном исполнении.

Потенциальная неэтичность ситуации, в которой нечто (или все же некто?), обладающее интеллектом, будет обслуживать нас, чем (или все же кем?) мы будем владеть и что (или кто?) не будет иметь никаких прав, потому что будет вещью, мучает подсознание. Мы стремимся оградиться от потенциального бунта рабов, придумывая этические предохранители, которые надо "вставить им в мозги".

В то время как пока что учить этике нужно человека — как бы это ни было трудно. Человеческий фактор в ИИ все еще сильнее фактора робота, и мы зависим от адекватности человека больше, чем от ИИ. Поэтому именно людям следует продумать систему этики взаимодействия с ИИ, прежде чем учить сам ИИ этике. Продумать до мелочей. И делать это надо уже сейчас, пока мы, как успокаивает нас Джин Рометти, "мама" IBM Watson, все еще "можем выдернуть шнур". Или пока мы еще не стоим перед ситуацией, в которой выдернуть шнур будет совершенно неэтично.

ДС



Комментировать статью
Автор*:
Текст*:
Доступно для ввода 800 символов
Проверка*:
 

также читайте

по теме

фототема (архивное фото)

© фото: АР

Вручение ордена юбилярше Пугачевой

   
новости   |   архив   |   фототема   |   редакция   |   RSS

© 2005 - 2007 «ТЕМА»
Перепечатка материалов в полном и сокращенном виде - только с письменного разрешения.
Для интернет-изданий - без ограничений при обязательном условии: указание имени и адреса нашего ресурса (гиперссылка).

Код нашей кнопки: