Гендиректор БИОРГ Руслан Алигаджиев: «ИИ — это цифровой помощник»

Что скрывается за корпоративной бурей в OpenAI и слухами об очередном прорыве компании в области разработки сильного ИИ? Как следует на самом деле воспринимать и как применять искусственный интеллект на практике, чтобы снизить возможные риски? Каких правил придерживаться при обучении ИИ? Гендиректор БИОРГ Руслан Алигаджиев рассказал в колонке для IT WEEK.

В мире опять растет беспокойство по поводу приближения эры сильного (общего) искусственного интеллекта. 23 ноября Reuters сообщило, что стремительное изгнание Сэма Альтмана с поста гендиректора OpenAI (разработчик ChatGPT) произошло из-за новой опасной разработки компании и слишком большой любви Альтмана к коммерциализации решений, риски применения которых еще до конца не исследованы.

Этические вопросы в сфере искусственного интеллекта

В бизнесе и государстве есть тренд на цифровых помощников: рекомендательные системы для поддержки принятия решений. Благодаря технологиям обработки естественного языка (NLP) такая система может распознавать документы и анализировать их содержание. Так, изучив договор купли продажи и доверенность, система принимает решение — можно ли провести сделку. На основе анализа текста технического может подобрать наиболее походящий технологический продукт. Технология берет на себя рутину и упрощает действия людей.

Но можно ли полностью делегировать автоматизированным системам важные решения? Может ли ИИ подменить человеческий выбор?

Почему ИИ не следует принимать решений за человека

Главная опасность в том, что алгоритмы не обладают сознанием, эмпатией и моральными принципами. Они могут обрабатывать огромные массивы данных и находить скрытые закономерности, но не понимают контекста и последствий своих рекомендаций в человеческом контексте.

Иногда нейросеть попросту галлюцинирует: выдумывает факты и их интерпретацию, предлагая на этой основе правдоподобные выводы и обобщения, не имеющие никого отношения к действительности. К чему могут привести подобные рекомендации?

ИИ не совершенен: зачем в ИИ-проектах нужны люди

ИИ — черный ящик, когда невозможно до конца проследить логику, по которой нейросеть принимает решения. Алгоритмы подвержены ошибкам и искажениям. Причинами могут быть систематические смещения в данных, на которых обучалась нейросеть, ограниченность модели, неспособность обобщать новые данные и способность «забывать» старые. Кроме того, ИИ может унаследовать предрассудки от своих разработчиков. Подобные предубеждения критичны для анализа данных, связанных с людьми: в процессе судебных решений, отбора кандидатов, прогнозирования развития болезни и т. д.

Поэтому, например, в сегменте оцифровки документов, где широко применяют ИИ, часто используют методику двухэтапного распознавания: обработанные ИИ значения затем верифицируют люди — для гарантии точности и качества.

Что делать, чтобы ИИ стал безопасным?

ИИ может служить эффективным инструментом для оптимизации разных аспектов повседневной деятельности, но полностью полагаться на него не стоит. Человеческий контроль и экспертиза по-прежнему важны для корректного обучения и интерпретации действий системы.

Риски применения ИИ необходимо прорабатывать в комплексе:

  • Повышать прозрачность алгоритмов, чтобы можно было проследить причины ошибок. Делать ставку не только на коммерческие, но и Open Source-разработки.
  • Предъявлять строгие требования к подготовке наборов данных для обучения алгоритмов, исключать предубеждения. В разметке данных должны участвовать люди.
  • Совершенствовать этические и правовые нормы для определения ответственности в случае ущерба от ошибок ИИ.
  • Сохранять за человеком контроль над критически важными решениями.

Читать колонку полностью на сайте IT WEEK.

27.11.2023

Работаем только с юридическими лицами

Работаем только с юридическими лицами.

    На указанный вами email мы автоматически пришлем презентацию.

    Работаем только с юридическими лицами.

    Вся информация по трудоустройству на странице "Вакансии"

    Ошибка: Контактная форма не найдена.

    Ошибка: Контактная форма не найдена.