
Нейросети активно применяются как виртуальные психологи, но подобные сервисы требуют внимательного подхода к сохранности персональных данных. В этом уверен Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
Осторожность с обучающими данными
Эксперт объясняет, что платформы ИИ часто записывают пользовательские вводы для дообучения. При недостаточном обезличивании конфиденциальные разговоры – о личных переживаниях или психологических травмах – рискуют осесть в логах или публичном доступе.
Доступ разработчиков и скрытые уязвимости
ИИ-сервисы могут предоставлять своим создателям доступ к информации для улучшения функционала, чем увеличивают шансы внутренних протечек. Силаев обращает внимание и на технические риски: "Неверная настройка защит открывает диалоги для посторонних. Известны случаи с общедоступными интернет-базами из-за ошибок".
Новые угрозы и проверенные методы атак
Ученая сфера искусственного интеллекта вызывает особые опасения: специальные методы позволяют воспроизводить фрагменты обучающих наборов, частично восстанавливая интимные истории. Не стоит игнорировать и фишинг со взломом: проникнув в аккаунт, злоумышленник получит все беседы.
Пути к безопасности
Для пользователей обязательным является выбор сервисов с открытой политикой безопасности и сквозным шифрованием. "Удаляйте истории, избегайте передачи паспортных данных. Идеальное решение – обработка разговоров на устройстве", – подчеркивает специалист, напоминая о большом потенциале ИИ при условии ответственного выбора.
Тему глобальных рисков ИИ поднял также видный когнитивист Нейт Соарес, ранее работавший в Google и Microsoft. Он заявил о высокой вероятности угроз человечеству от развития технологий ИИ.
Источник: russian.rt.com



