Loading...

На днях стало известно, что Европейский парламент вынесет на голосование свод правил, которые будут регулировать взаимодействие человека с роботами и системами искусственного интеллекта. В начале февраля еврочиновники должны будут решить, нужно ли на законодательном уровне обезопасить человека от потенциальной угрозы.

Инициатором проекта стала депутат Европарламента от Люксембурга Мади Дельво. «Робототехника все больше влияет на нашу повседневную жизнь. Чтобы отвечать на запросы действительности и быть уверенными в том, что роботы останутся на службе у человека, мы срочно должны создать в Европе прочную правовую основу», — заявила Дельво. Опасения чиновников вызывает тот факт, что роботы становятся все более автономными и независимыми от своих разработчиков, а потому менее предсказуемыми. Президент и генеральный директор компании IBM Джинни Рометти, выступая на Международном экономическом форуму в Давосе, отметила, что одной из основных задач, стоящих перед индустрией, становится развитие доверия к технологиям на основе искусственного интеллекта и повышение их прозрачности.

История вопроса

Вопрос о том, наделять ли роботов личностью, имеет долгую предысторию. Сегодня он ставится в отношении роботов (как и, впрочем, животных) ровно так же, как раньше стоял в отношении маленьких детей, женщин, рабов, считает президент TechInvestLab Анатолий Левенчук. «Наделение статусом личности — это, прежде всего, наделение правами личности, например, никто не может забрать жизнь или плоды труда личности. Сложности при этом возникают традиционные: большинство подобных дискуссий в обществе сопровождались разными революциями, а иногда и гражданскими войнами», — подчеркнул эксперт.

Наделение роботов статусом «электронной личности» станет актуальным, когда роботы и системы искусственного интеллекта станут полностью самообучаемыми. «Так, робот-пылесос становится просто роботом, робот-автомобиль становится просто автомобилем (скоро даже слово «беспилотный» не нужно будет добавлять). Но ситуация может резко поменяться, если вы начнете разговаривать с этими роботами, а сами роботы смогут учиться. А именно это и будет происходить в ближайшее десятилетие», — предсказал Анатолий Левенчук.

Робот работающий

Наиболее острой проблемой, связанной с массовой роботизацией, является не столько безопасность прямого взаимодействия человека и робота, сколько замещение последними рабочих мест. Так, на экономическом форуме в Давосе эксперты в области искусственного интеллекта сошлись во мнении, что таким компаниям, как IBM и Microsoft, необходимо уже сейчас думать о занятости людей, которые в ближайшем будущем лишатся рабочих мест в связи с бурным развитием искусственного интеллекта и роботизацией.

Генеральный исполнительный директор Microsoft Сатья Наделла подчеркнул, что компании должны будут предложить сотрудникам программы по развитию новых профессиональных навыков в условиях меняющегося рынка труда. Такого же мнения придерживаются и ведущие российские эксперты в робототехнике. «Наша цивилизация так устроена, что некоторые профессии исчезают. Например, исчезнет профессия дальнобойщика, водителя грузового коммерческого транспорта», — заявил Альберт Ефимов. Большинство экспертов в сфере беспилотного транспорта неоднократно подчеркивали, что самоуправляемые автомобили гораздо безопаснее водителей. По словам руководителя программы по созданию беспилотных автомобилей в Google Криса Урмсона, наименее надежным элементом автомобиля остается человек за рулем.

Вредные роботы

Согласно докладу европейских парламентариев, роботов необходимо обеспечить «кнопкой», которая позволит при необходимости выключать их функции. Однако опасность роботов, равно как и реальная угроза, которую они могут представлять для человека, может быть существенно преувеличена. «В принципе, ванны тоже опасны. Статистика утонувших дома в ванне удручает (так гибнет людей больше, чем от терроризма!), а ведь ванны — это не люди и даже не роботы! Статистика, увы, политиков не останавливает. На борьбу с терроризмом, например, тратят огромные суммы. А число погибших в мире от терроризма сравнимо с числом утонувших дома в ванне: например, в США 464 человека утонули в ванной в 2013, а в 2014 от терроризма погибло всего 17 человек», — рассказал Левенчук.

Сейчас за ущерб имуществу, причиненный механизмами (промышленные роботы относятся к источникам повышенной опасности), отвечает собственник, который может, в свою очередь, предъявить иск к создателю девайса. Но без детальной юридической регламентации очень сложно определить, где заканчивается ответственность создателя робота и до какой степени ущерб, причиненный самообучаемым роботом, нужно возмещать. «Сейчас производители страхуются, включая максимум ограничений в лицензионные договоры. Взять, скажем, автопилоты. Согласно лицензии, их можно использовать лишь днем, на пустых дорогах и держа руки на руле. Однако очевидно, что такое ограничение лишь создает неопределенность: пользователь все равно обратится в суд, если получит серьезные травмы от рук робота, ведь отказ от ответственности также можно оспорить», — рассказал Янковский.

Инициаторы законопроекта предлагают обезопасить пользователей не только от физических травм, но также от потенциального морального вреда. Однако, прежде чем разбираться с моральным вредом, необходимо разобраться с компенсацией ущерба за реальные травмы, считает Роман Янковский. «Что же касается риска и понимания "психологической травмы", то все зависит от безумия законодателей. Почему-то от разной техники законодатели требуют совершенно разных уровней безопасности, и часто эти требования безумны. Не сомневаюсь, что роботов обяжут быть такими безопасными, что они будут в разы и разы безопасней даже водопроводного крана с горячей водой и ровно поэтому будут стоить очень дорого, лишняя безопасность ведь крайне дорогая», — поделился опасениями Анатолий Левенчук.

Этика и роботы

Если Европарламент примет решение о необходимости правового регулирования взаимодействия робота и пользователя, это может по цепочке повлечь за собой появление множества надзорных и контролирующих органов. «Кроме комиссий по биоэтике, ждем многочисленных комиссий по техноэтике, интеллект-этике и прочих запрещающих прогресс инстанций. Но прогресс не остановишь: что нельзя делать в одной стране, будут делать в другой», — отметил Анатолий Левенчук.

Уже сейчас более половины научных исследований в европейских странах, в том числе в сфере искусственного интеллекта, смещается в сторону этических и правовых аспектов. «Мы приглашали в Россию Фрэнка Шуберта из Манчестерского университета, и он рассказывал, как организована катапульта, это центр прорывного исследования в Британии, по теме синтетической биологии в Манчестерском университете. Только треть исследований в этой катапульте — это исследования в области геномики, остальные две трети — это исследования в области нормотворчества и этики, исследований в области антропологии и социальной философии, потому что надо вообще понять, что такое искусственная жизнь, какой у нее статус, как вообще можно влиять искусственным образом на эволюцию жизни, включая человека. И какого рода ограничения можно накладывать на себя и на эти процессы в принципе. То есть чисто технологические исследования занимают примерно треть, в том числе и в деньгах», — рассказал программный директор Российской венчурной компании (РВК) Евгений Кузнецов.

Роботы по-русски

Правила лицензирования программ и алгоритмов как в России, так и за рубежом очень похожи, что же касается ответственности за ущерб, здесь Россия находится даже в привилегированной ситуации по сравнению, например, с США, считает Роман Янковский. «Перечень оснований для ответственности у нас уже, а толкование закона строже», — подчеркивает он.

Однако сейчас в России едва ли можно говорить о высоком интересе государства к робототехнике. «Последние пару лет есть всплеск интереса к летательным аппаратам, но больше с позиции правил воздушного движения. В перспективе аналогичные проекты, безусловно, будут появляться, благо у нас есть лоббистские группы по тематике: скажем, группа "Интернета вещей" при Институте развития Интернета или группа разработчиков программы "Нейронет" в рамках НТИ», — отметил Янковский.


Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.