Эксперты Альянса приняли участие в обсуждении вопросов этики в сфере ИИ на OpenTalks.AI — Альянс в сфере искусственного интеллекта

Если вы заинтересованы в сотрудничестве и готовы вкладывать усилия в развитие ИИ в России, напишите нам на
info@a-ai.ru

Эксперты Альянса приняли участие в обсуждении вопросов этики в сфере ИИ на OpenTalks.AI

22.02.2022

18 февраля эксперты Альянса в сфере искусственного интеллекта (ИИ) рассказали о дальнейших шагах в развитии регулирования и наиболее острых этических вопросах в области разработки и применения технологий искусственного интеллекта на конференции Open Talks AI. В сессии также приняли участие представили компаний, которые присоединились к Кодексу этики в сфере ИИ.

 

Актуальные этические вопросы

 

«Этика в сфере ИИ – про то, чтобы потребитель, который пользуется не всегда предсказуемой технологией, не оставался один на один с возможными негативными последствиями», — отметила в своем выступлении один из соавторов Кодекса этики в сфере искусственного интеллекта, руководитель группы регуляторной поддержки экосистемы МТС Елена Сурагина.

 

«Я предполагаю, что со временем появятся некие этические стандарты, на которые можно будет опираться разработчикам. Они их в какой-то степени обезопасят и будут вызывать доверие со стороны потребителя», — добавила она.

 

Александр Крайнов, директор по развитию технологий искусственного интеллекта «Яндекса», проиллюстрировал проблему этики в применении ИИ кейсом, связанным с ранжированием результатов поиска.

 

«У людей появляется абсолютное доверие к результатам поиска: если уважаемая поисковая система высоко отранжировала результат, то значит этот результат – хороший. Появляется задача ответственного ранжирования, но с точки зрения этики это огромная проблема, так как принимать решение о том, что такое хорошо, и что такое плохо — невероятно опасный путь. Это одна из проблем, которую нам предстоит решать. Общий принцип понятен: не вмешиваться нигде, кроме тех вопросов, которые являются вопросами жизни и смерти, и во всех случаях, когда мы вмешиваемся, мы должны об этом явно сказать и объяснить причины», — сказал А.Крайнов.

 

«Могу гарантировать, что все вновь вводимые правила будут публичными и прозрачными, и мы будем объяснять, почему принимаются те или решения, какой таргет мы алгоритму задаем, какие факторы используются», — подчеркнул он.

 

«Одна из ключевых задач для нас сегодня – создать список самых часто задаваемых вопросов в сфере этики искусственного интеллекта и предложить возможные варианты решения», — прокомментировал Андрей Незнамов, управляющий директор центра регулирования AI Сбербанка.

 

Регулирование и саморегулирование

 

Вопросам государственного регулирования было уделено много внимания со стороны участников дискуссии. Отмечалось, что внедрение новых регуляторных норм в этой сфере неизбежно, его стоит ожидать в ближайшее время, и важно избежать ситуации, когда это будет мешать развитию технологий.

 

«В России и за рубежом существует определенное количество активностей, направленных на регулирование в области искусственного интеллекта. Какие-то из них могут стать критичными для развития искусственного интеллекта, например приравнивание обезличенных данных к персональным данным. И это действительно большая проблема, потому что тогда для целей машинного обучения обезличенные датасеты нужно будет обрабатывать по соответствующим правилам», — сказала Елена Сурагина.

 

Она отметила, что «сейчас сообществу надо составить план действий, выделить точки, которые в ближайший год станут болевыми».

 

Никита Кардашин, руководитель практики комплексной цифровизации компании Naumen, добавил: «Нужно избежать ситуации, когда ограничения приведут к ступору в развитии технологий. Есть риск, что излишняя зарегулированность приведет к тому, что мы на уровне государства начнем конкурентно отставать от мира, потому что наши компании будут от этого страдать, а допустим, китайские компании будут страдать от этого в меньшей степени, и мы просто получим для себя большой тормоз».

 

«Мы понимаем, что законодательство возникнет и зарегламентирует разработчиков, поэтому имеет смысл приглядеться к Кодексу этики, чтобы избежать ошибок, ввести определенные ограничения на использование данных, на использование методик, чтобы наша разработка была этичной и корректной», — подчеркнул Павел Дрейгер, член правления, вице-президент по программным продуктам и решениям Sitronics Group.

 

По его словам, «Кодекс может стать некоторой точкой схождения интересов заказчиков и исполнителей. То есть платформой, где люди из бизнеса и эксперты IT-cреды смогут говорить на одном языке, оперировать одним понятийным аппаратом и одним набором ограничений. Это важный момент, поскольку это должно упростить жизнь и вендорам и заказчиками, которым порой бывает трудно найти поставщика с целевым уровнем надежности особенно в условиях ограниченного бюджета».

 

Оставить заявку на присоединение к Кодексу можно на сайте «Альянса в сфере ИИ»