23.09.2024 Новости, Безопасность, Искусственный интеллект, Итоги и тенденции, Обзоры рынков, Цивилизованность и прозрачность ИТ-рынка
Вопросы обеспечения безопасности в условиях быстрого распространения ИИ-инструментов и быстрого их развития стоят достаточно остро. Сейчас много говорят о «Доверенном искусственном интеллекте» (ДИИ), но требования к нему предъявляют довольно странные, причем не всегда формализованные. Напомним, что речь идет о GenAI, генеративном ИИ, способном создавать в текстовом и медиа-форматах; это только часть современного ИИ, но, например, к инструментам аналитиков пока не пытаются «прикрутить» этику. Хакеры занимаются взломами ИИ как «из любви к искусству» — направление новое, малоизученное! — так и для вполне прикладных задач. «Тема безопасности в контексте технологий „искусственного интеллекта“ гораздо глубже, чем кажется на первый взгляд», — напоминает Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда». На базе GenAI создают корпоративные системы, обход ограничений в которых может привести к утечке коммерческой тайны или персональных данных, перехвату управления и другим прецедентам, создающим для компании существенные риски различного характера — от технических до регуляторных. GenAI используют законопослушные граждане — как в частном порядке, так и как сотрудники корпораций, выполняющие должностные обязанности — но эти же ИИ-инструменты активно применяют и преступники. Основная проблема состоит в том, что нужно максимально затруднить применение новых инструментов киберпреступниками, но при этом ...
читать далее.