Эксперт НТИ рассказал, какие угрозы могут таиться в умных домах с ИИ-функциями

Встроенные функции искусственного интеллекта в устройства умного дома могут создавать не только комфорт для пользователей, но и угрозу для их безопасности или риски утечки данных. Об этом рассказал гендиректор группы компаний ST IT, эксперт TechNet НТИ Антон Аверьянов.

“В этому году уже были случаи, когда ИИ-ассистенты, интерпретировали неоднозначные голосовые команды как разрешение на доступ, что привело к несанкционированному открытию умных замков для удаленных пользователей через интегрированные облачные сервисы. Это происходит из-за того, что ИИ, обучаясь на паттернах поведения, может ошибочно классифицировать фальшивые аудиозаписи как оригинальные, особенно если модель не обновлена с учетом новых методов подделки”, — рассказал эксперт TechNet НТИ.

По словам Аверьянова, другой реальный аспект риска связан с алгоритмами предсказания, которые, анализируя привычки жителей для оптимизации энергопотребления или освещения, непреднамеренно раскрывают конфиденциальную информацию. Был инцидент, когда система, интегрированная с датчиками движения и камерами, передала данные о распорядке дня семьи в третьесторонний сервис для «улучшения рекомендаций», что позволило злоумышленникам спланировать кражу в момент отсутствия хозяев.

“Также, если ИИ полагается на локальные данные без строгой шифровки, утечка может произойти через устаревшие прошивки устройств, где фоновый обмен данными с облаком не имеет временных меток, делая их уязвимыми для анализа. Особую опасность представляют цепные сбои в экосистемах, где ИИ координирует несколько устройств. Хакер может модифицировать входные данные ИИ, что может привести к ложным предсказаниям: в результате система может, к примеру, отключить вентиляцию в момент обнаружения «угрозы» или, напротив, игнорировать реальную аномалию, такую как перегрев оборудования. Также если один датчик скомпрометирован, ИИ может распространить ошибку на всю сеть, например, в случае, где предиктивный алгоритм неверно интерпретировал данные с датчика дыма как «ложное срабатывание» из-за искаженных сенсорных входов”, — уточнил гендиректор группы компаний ST IT.

Также часть угроз существует под влиянием самого ИИ, подчеркнул Аверьянов. Исследования показывают, что системы с машинным обучением могут «самообучаться» на атаках — если ИИ адаптируется к новым шаблонам, но без регулярного аудита, он рискует интегрировать вредоносные паттерны в свою логику. Это значит, что после одной успешной атаки система может стать более предсказуемой для повторных вторжений, особенно если обновления ПО задерживаются из-за региональных ограничений.

Автор: Danil Serbin