По мере того как алгоритмы становятся более сложными и автономными, возникает риск того, что они начнут принимать важные решения от нашего имени. Технология уже способна автоматизировать решения, такие как медицинская диагностика или интеллектуальное производство, которые обычно выполняются людьми.
Когда речь идет об искусственном интеллекте, автомобильная технология на шаг впереди. Автономные автомобили представляют популярную область исследований в области искусственного интеллекта. Крупные компании, такие как Google, Uber и Tesla, исследовали, как заставить автомобили научиться правильно ездить, применяя целенаправленное обучение, т.е. обучение методом проб и ошибок. Но самообучающиеся машины уязвимы к неудачам, и на первый план выступают этические аспекты. Это ставит под сомнение общепринятую концепцию моральной ответственности: Кто несет ответственность? И кто является ключом к лучшим практикам?
Каким образом мы можем повысить осведомленность по данным вопросам при отсутствии международного стандарта на ИИ? ИСО и Международная электротехническая комиссия (МЭК) приступили к выполнению задач с помощью своего совместного технического подкомитета ИСО/МЭК СТК 1/ПК 42, Искусственный интеллект. Микаэль Хьялмарсон (Mikael Hjalmarson) из SIS, члена ИСО из Швеции, ведущий эксперт в области ПК 42, поясняет, как международные стандарты помогут создать этическую основу для внедрения систем искусственного интеллекта в будущем.
ISOfocus: Какие методы ИИ будут обладать высоким преобразующим потенциалом. Почему этические и социальные проблемы необходимо учитывать при работе с ИИ?
Микаэль Хьялмарсон (Mikael Hjalmarson): ИИ применяет технологии, которые позволяют собирать и обрабатывать информацию новыми способами и в автоматическом режиме. В настоящее время способность обрабатывать гораздо больше данных, чем в прошлом, увеличилась – потенциал, который может иметь этические и социальные последствия. Именно при управлении данными в скрытых слоях ИИ, таких как внедрение нейронного или машинного обучения, этические и социальные проблемы, которые не всегда имеют отрицательный характер, также необходимо учитывать. То есть решения, которые ранее рассматривались вне систем, теперь должны рассматриваться внутри систем. Может также случиться такое, что приложение ИИ, независимо от того, насколько оно «самообучающееся», будет иметь устоявшиеся предубеждения, которые будут непреднамеренно добавлены при разработке и построении системы.
Крайне важно, чтобы мы понимали этические и социальные аспекты технологии, с тем чтобы мы могли разработать надежные системы, которые гарантируют прозрачность, смягчение предвзятости, прослеживаемость и т.д., поскольку они являются ключевыми для ускорения внедрения ИИ и признания в будущем. Международные стандарты могли бы сыграть определенную роль в выявлении этических вопросов и обеспечении необходимых рамок для их решения.
Какие наиболее серьезные проблемы существуют в вопросах этики и проблемах общества? Каковы некоторые из примеров достижения консенсуса?
ИИ ставят новые и уникальные вызовы перед моралью. Основная проблема заключается в том, что системы, использующие ИИ, могут быть реализованы многими различными пользователями по-разному в различных секторах – от здравоохранения и до мобильности, с совершенно разными требованиями, а иногда и с рыночными и региональными различиями. Технология искусственного интеллекта кажется «черным ящиком», который может ответить на вопросы… но может ли он сказать вам, почему один вариант лучше, чем другой? Могут ли быть альтернативы? Кроме того, необходимо рассмотреть различные стратегии, директивы и экологические аспекты, например те, которые регулируют порядок сбора и использования данных.
Над какими этическими и социальными стандартами работает ПК 42?
Рабочая группа ПК 42 РГ 3, Надежность, в настоящее время занята новым, утвержденным, проектом. Идея заключается в том, чтобы собрать и выявить этические и социальные соображения, связанные с ИИ, и связать их с проектами, над которыми мы работаем. Кульминацией этих усилий станет будущий технический доклад ISO/IEC TR 24368, цель которого заключается в том, чтобы осветить особенности этики и социальных проблем в связи с другими общими текущими проектами в сфере надежности, управления рисками и предвзятого отношения.
Этические и социальные аспекты рассматриваются с точки зрения экосистемы, что может привести к тому, что в будущем в рамках ПК 42 будет проводиться больше работы, а также послужит руководством для других технических комитетов ИСО и МЭК, занимающихся разработкой стандартов применительно к отдельным областям приложений, которые используются ИИ.
Какие нормативные вопросы существуют в данной области и как ПК 42 планирует решить их? Один из вызовов, связанных с этическими стандартами, заключается в том, что они часто бывают добровольными, что означает, что некоторые разработчики технологий не могут следовать за ними. Какие предложения?
ИСО, МЭК и СТК 1 занимаются разработкой стандартов, на основе добровольного консенсуса по всем направлениям, а не только по вопросам морали. Сейчас нас беспокоит то, что технология меняется быстрее, чем действия регулирующих органов. Такая ситуация приводит к игре в кошки-мышки между растущим использованием ИИ в различных типах систем и сред и разработкой правил и законов контроля ИИ. Поскольку мы смотрим на всю экосистему, мы участвуем в различных секторах, что отражает интересы различных точек зрения в этой области, включая нормативные требования.
Одна из иллюстраций сложившейся ситуации – навигационная система в нашем автомобиле. Вполне допустимо для GPS, задающего направления на лучший маршрут: чтобы добраться от А до B, иногда ошибаются, но в конечном итоге находят пункт назначения. Это нормально, если приложение ИИ решит дать пациенту более эффективный препарат (А) с более высоким риском побочных эффектов, а не менее эффективный препарат (Б) с меньшими шансами побочных эффектов. Это может хорошо работать в больнице, где есть пациенты под контролем и врачи на месте, но может быть более неудобно, не говоря уже о риске, в доме престарелых. Если бы препарат был назначен врачом, можно было бы спросить, почему был выбран более эффективный препарат (А), но приложение ИИ, которое только должно доставить препарат, может даже не дать комментариев относительно того, почему препарат (А) более уместен, чем препарат (Б).
Международные стандарты, в том числе касающиеся этики, могут служить руководством для оказания помощи регулирующим органам в их работе. Например, при создании новых систем, которые будут соединены с другими новыми или существующими системами, они увеличат возможность их широкого внедрения и использования. Стандарты по своей самой природе, разрабатываются на долгосрочную перспективу, тем не менее сегодня часто требуется проведение исследований и разработок, что означает, что на постоянной основе могут потребоваться другие типы документов. Таким образом, наряду с новым проектом в области этики словарь, устанавливающий четкие термины и определения, станет ценным активом для обеспечения общего понимания между различными заинтересованными сторонами и хорошей отправной точкой для разработки таких документов.
Когда неэтично использовать ИИ?
Это сложный вопрос, потому что то, что является этичным или неэтичным, очень сильно зависит от контекста, в котором используется ИИ, который также может различаться в разных регионах. Например, неиспользование ИИ в изучении болезней можно было бы считать неэтичным, поскольку само его использование могло бы повысить способность находить лекарства быстрее, чем если бы оно не использовалось.
Важно помнить о потенциале ИИ, который может помочь при решении некоторых из наших самых больших проблем, особенно когда они связаны с безопасностью человека. Например, является ли более этичным то, что автомобиль с самостоятельным вождением убивает большее количество людей в год, чем мы, люди за рулем? Такова дилемма этики ИИ.