Начну, пожалуй, с заявления британского чипмейкера Arm Рене Хааса, который предупредил о "восстании машин". Arm Рене Хаас заявил, что его самый большой страх, касающийся развития искусственного интеллекта, состоит в том, что он получит контроль над человеком. Arm Рене Хаас призвал найти способ "отключить систему".
Рассмотрим, насколько опасения Arm Рене Хааса оправданы.
Сначала о том, что из себя представляет искусственный интеллект
- Искусственный интеллект (ИИ) - это область информатики, которая занимается разработкой интеллектуальных компьютерных систем, то есть систем, обладающих возможностями, которые мы связываем с разумом, - понимание языка, обучение, способность рассуждать, решать проблемы и т. д. ИИ является мощным инструментом разума, который он создал в ХХ веке.
Кстати, информа́тика (фр. informatique; англ. computer science) - наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации.
Термин ИИ употребляется уже 70 лет.
ИИ используется:
-в разработке программного обеспечения,
для решения демографических проблем,
в целях обороны и в военном деле,
в образовании,
в бизнесе,
в квантовой физике,
в борьбе с мошенничеством,
в электроэнергетике,
в производственной сфере,
в банках,
на транспорте,
в логистике,
в аудите,
в торговле,
в сельском хозяйстве,
на рынке предметов и услуг роскоши,
в ресторанах,
в пивоварении,
в юриспруденции,
в госуправлении,
в ЖКХ,
= в криминалистике,
в судебной системе,
в спорте,
в медицине (здравоохранении).
Словом, ИИ задействован человечеством практически во всех сферах общественной жизни.
ИИ является комплексом родственных технологий и процессов, развивающихся качественно и стремительно, например, в таких областях, как:
обработка текста на естественном языке,
машинное обучение,
экспертные системы,
виртуальные агенты (чат-боты и виртуальные помощники),
При анализе данных ИИ находит закономерности и прогнозирует. При этом ИИ использует методы статистики и эконометрики.
Теперь мы можем перейти к ответу на вопрос о том, какую угрозу представляет искусственный интеллект для человечества. Неужели он подобен ядерному оружию, также созданному разумом?
Развитие технологий искусственного интеллекта в перспективе может нести не только пользу, но и вред.
Известно, что администрация президента США выпустила инструкцию о защите людей от ИИ.
7 октября 2022 года Управление по научно-технической политике (OSTP) Белого дома сформулировало пять положений, которыми следует руководствоваться при разработке, использовании и внедрении автоматизированных систем. Документ подготовлен на фоне того, как по мере развития искусственного интеллекта все больше голосов присоединяются к призыву принять меры по защите людей от этой технологии. Опасность, по мнению экспертов, заключается в том, что нейросети легко становятся предвзятыми, неэтичными и опасными.
Пользователь должен быть защищен от небезопасных или неэффективных систем. Автоматизированные системы должны разрабатываться на основе консультаций с различными сообществами, заинтересованными сторонами и экспертами в данной области для определения проблем, рисков и потенциального воздействия системы. Системы должны проходить тестирование перед развертыванием для выявления и снижения рисков, а также постоянный мониторинг, который продемонстрирует их безопасность и эффективность.
Пользователи не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться на принципах равноправия. В зависимости от конкретных обстоятельств, алгоритмическая дискриминация может нарушать правовую защиту. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны принимать проактивные и последовательные меры для защиты отдельных лиц и сообществ от алгоритмической дискриминации, а также для использования и проектирования систем на основе равноправия.
Пользователь должен быть защищен от неправомерного использования данных с помощью встроенных средств защиты, и он должен иметь право распоряжаться тем, как используются данные о нем. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны запрашивать у пользователя разрешение и уважать его решения относительно сбора, использования, доступа, передачи и удаления его данных соответствующими способами и в максимально возможной степени; если это невозможно, следует использовать альтернативные средства защиты конфиденциальности на основе дизайна.
Пользователь должен знать, что автоматизированная система используется, и понимать, как и почему она способствует достижению результатов, которые влияют на него. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны предоставлять общедоступную документацию на простом языке, включающую четкое описание общего функционирования системы и роли, которую играет автоматизация, уведомление о том, что такие системы используются, о лице или организации, ответственной за систему, и объяснение результатов, которое должно быть четким, своевременным и доступным.
Пользователь должен иметь возможность отказаться от услуг, где это необходимо, и иметь доступ к специалисту, который может быстро рассмотреть и устранить возникшие проблемы. Пользователь должен иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно.
Кроме того 16 февраля 2022 года появилась информация о том, что бывший исполнительный директор Google Эрик Шмидт (Eric Schmidt) объявил о создании благотворительного фонда с общим капиталом 125 млн долларов, который будет оказывать содействие исследованиям в сфере искусственного интеллекта. Речь, в первую очередь, идёт об исследованиях, направленных на решение кардинальных проблем, проявляющихся при использовании технологий искусственного интеллекта, в том числе предвзятости (феномен AI bias - прим. TAdviser), возможности причинения вреда и злоупотреблений. В списке значатся также геополитические конфликты и научная ограниченность самой технологии.
При написании данной статьи автор использовал информацию из Википедии.