1. Беспокойство по поводу развития искусственного интеллекта
ДомДом > Блог > 1. Беспокойство по поводу развития искусственного интеллекта

1. Беспокойство по поводу развития искусственного интеллекта

Dec 19, 2023

Было бы довольно сложно – некоторые могут сказать, что невозможно – разработать широко принятые этические системы искусственного интеллекта. Часть ответивших экспертов отметила, что этику трудно определить, внедрить и обеспечить соблюдение. Они сказали, что контекст имеет значение, когда дело доходит до этических соображений. Любая попытка разработать этические правила порождает бесчисленное множество различных сценариев, в которых применение этих правил может оказаться беспорядочным. Характер и относительная сила действующих лиц в любом конкретном сценарии также имеют значение. Социальные стандарты и нормы развиваются и могут совершенно меняться по мере изменения культур. Лишь немногие люди имеют хорошее образование или подготовку в области этики. Кроме того, хорошие и плохие субъекты используют лазейки и серые зоны там, где этические правила не являются четкими, поэтому обходные пути, исправления или другие средства правовой защиты часто создаются с разной степенью успеха.

Эксперты, выразившие обеспокоенность, также упомянули проблемы управления. Они спросили: чьи этические системы следует применять? Кто будет принимать это решение? Кто несет ответственность за внедрение этического ИИ? Кто может обеспечивать соблюдение этических режимов после их установления? Как?

Большое количество респондентов утверждали, что геополитическая и экономическая конкуренция являются основными движущими силами разработчиков ИИ, а моральные соображения отходят на второй план. Часть этих экспертов заявила, что создатели инструментов искусственного интеллекта работают в группах, у которых мало или совсем нет стимулов для разработки систем, решающих этические проблемы.

Некоторые респонденты отметили, что, даже если бы можно было установить осуществимые этические требования, их нельзя было бы применять или регулировать, поскольку большая часть проектов ИИ является запатентованной, скрытой и сложной. Как можно диагностировать и устранять вредные «результаты» ИИ, если невозможно определить основу «решений» ИИ? Некоторые из этих экспертов также отмечают, что существующие системы и базы данных ИИ часто используются для создания новых приложений ИИ. Это означает, что предубеждения и этически тревожные аспекты нынешних систем переносятся в новые системы. Они говорят, что диагностировать и устранить ранее существовавшие проблемы может быть сложно, а то и невозможно.

Часть этих экспертов дополнили свои ответы вопросами, которые сводятся к следующему всеобъемлющему вопросу: как можно определить и применить этические стандарты в глобальной, межкультурной, постоянно развивающейся и постоянно расширяющейся вселенной разнообразных систем «черного ящика», в которых плохие актеры и дезинформация процветают?

Подборка комментариев респондентов по этой широкой теме организована на следующих 20 страницах под следующими подзаголовками: 1) Может быть трудно прийти к согласию относительно того, что представляет собой этическое поведение. 2) Проблема в людях: чья этика? Кто решает? Какая разница? Кто обеспечивает соблюдение? 3) Как и все инструменты, ИИ можно использовать как во благо, так и во вред, что усложняет установление стандартов. 4) Дальнейшая эволюция ИИ сама по себе вызывает вопросы и сложности.

Стивен Даунс,Старший научный сотрудник по цифровым технологиям Национального исследовательского совета Канады заметил: «Проблема с применением этических принципов к искусственному интеллекту заключается в том, что не существует общего согласия относительно того, что это такое. Из-за единогласия в отношении этических принципов это единодушие редко выходит за пределы одной культуры, профессии или социальной группы. Это проявляется в той легкости, с которой мы увековечиваем несправедливость, несправедливость и даже насилие и смерть по отношению к другим людям. Ни одна нация не застрахована.

«Проблема с применением этических принципов к искусственному интеллекту заключается в том, что не существует общего согласия относительно того, что это такое. Хотя принято предполагать, что существует какое-то единодушие в отношении этических принципов, это единодушие редко выходит за рамки единой культуры. профессия или социальная группа».

«Это усугубляется тем фактом, что современный искусственный интеллект не основан на принципах или правилах. Современный ИИ основан на применении математических функций к большим коллекциям данных. Этот тип обработки нелегко сформировать с помощью этических принципов; не существует «хороших» или «злые» математические функции, а предвзятости и предубеждения в данных нелегко выявить и предотвратить. Между тем, применение ИИ недостаточно определяется результатом; тот же прогноз, например, может использоваться для обеспечения социальной поддержки и помощь нуждающемуся лицу или препятствование этому лицу получить работу, страхование или финансовые услуги.