Что скрывается за корпоративной бурей в OpenAI и слухами об очередном прорыве компании в области разработки сильного ИИ? Как следует на самом деле воспринимать и как применять искусственный интеллект на практике, чтобы снизить возможные риски? Каких правил придерживаться при обучении ИИ? Гендиректор БИОРГ Руслан Алигаджиев рассказал в колонке для IT WEEK.
В мире опять растет беспокойство по поводу приближения эры сильного (общего) искусственного интеллекта. 23 ноября Reuters сообщило, что стремительное изгнание Сэма Альтмана с поста гендиректора OpenAI (разработчик ChatGPT) произошло из-за новой опасной разработки компании и слишком большой любви Альтмана к коммерциализации решений, риски применения которых еще до конца не исследованы.
В бизнесе и государстве есть тренд на цифровых помощников: рекомендательные системы для поддержки принятия решений. Благодаря технологиям обработки естественного языка (NLP) такая система может распознавать документы и анализировать их содержание. Так, изучив договор купли продажи и доверенность, система принимает решение — можно ли провести сделку. На основе анализа текста технического может подобрать наиболее походящий технологический продукт. Технология берет на себя рутину и упрощает действия людей.
Но можно ли полностью делегировать автоматизированным системам важные решения? Может ли ИИ подменить человеческий выбор?
Главная опасность в том, что алгоритмы не обладают сознанием, эмпатией и моральными принципами. Они могут обрабатывать огромные массивы данных и находить скрытые закономерности, но не понимают контекста и последствий своих рекомендаций в человеческом контексте.
Иногда нейросеть попросту галлюцинирует: выдумывает факты и их интерпретацию, предлагая на этой основе правдоподобные выводы и обобщения, не имеющие никого отношения к действительности. К чему могут привести подобные рекомендации?
ИИ — черный ящик, когда невозможно до конца проследить логику, по которой нейросеть принимает решения. Алгоритмы подвержены ошибкам и искажениям. Причинами могут быть систематические смещения в данных, на которых обучалась нейросеть, ограниченность модели, неспособность обобщать новые данные и способность «забывать» старые. Кроме того, ИИ может унаследовать предрассудки от своих разработчиков. Подобные предубеждения критичны для анализа данных, связанных с людьми: в процессе судебных решений, отбора кандидатов, прогнозирования развития болезни и т. д.
Поэтому, например, в сегменте оцифровки документов, где широко применяют ИИ, часто используют методику двухэтапного распознавания: обработанные ИИ значения затем верифицируют люди — для гарантии точности и качества.
ИИ может служить эффективным инструментом для оптимизации разных аспектов повседневной деятельности, но полностью полагаться на него не стоит. Человеческий контроль и экспертиза по-прежнему важны для корректного обучения и интерпретации действий системы.
Риски применения ИИ необходимо прорабатывать в комплексе:
Читать колонку полностью на сайте IT WEEK.
Работаем только с юридическими лицами
Работаем только с юридическими лицами.
Работаем только с юридическими лицами.
Ошибка: Контактная форма не найдена.
Ошибка: Контактная форма не найдена.