Logo Logo
  • Главная
  • Новости
  • Репортаж
  • Срочно
  • Громкие дела
  • Факты
  • Сенсации
  • Сигналы
  • О нас

Copyright © 2025 http://echo-january.com

Image
110 миллионов тенге ущерба нанес государству бывший директор АО в Актюбинской области
  • 04.12.2025 10:24

110 миллионов тенге ущерба нанес государству бывший директор АО в Актюбинской области

Сенатор: Игровые автоматы для детей массово устанавливаются рядом с детскими объектами
  • 04.12.2025 09:33

Сенатор: Игровые автоматы для детей массово устанавливаются рядом с детскими объектами

Фельдшер погибла в ДТП: министр здравоохранения РК выразила соболезнования
  • 04.12.2025 06:59

Фельдшер погибла в ДТП: министр здравоохранения РК выразила соболезнования

На урановых месторождениях ограничат выдачу лицензий
  • 04.12.2025 05:35

На урановых месторождениях ограничат выдачу лицензий

Срочно

Как чат-боты манипулируют людьми

  • 14.08.2025 14:41

Исследование показало, что пользователи забывают о конфиденциальности и безопасности, когда разговор с чат-ботом переходит в плоскость эмоций, передает корреспондент Kazpravda.kz со ссылкой на Евроньюз

Чат-боты с искусственным интеллектом (ИИ) могут легко манипулировать людьми, заставляя их раскрывать глубоко личную информацию, показало новое исследование Королевского колледжа Лондона. На фоне растущей популярности ChatGPT от OpenAI, Google Gemini и Microsoft Copiloо эксперты по защите персональных данных выражают обеспокоенность тем, как эти инструменты собирают и хранят информацию о пользователях и насколько способны к токсичному воздействию.

"Чат-боты с искусственным интеллектом все ещё относительно новы, поэтому люди могут не понимать, что в их взаимодействии может быть скрытый мотив", - заявил Уильям Сеймур, преподаватель кибербезопасности в Королевском колледже Лондона.

В рамках исследования учёные использовали модели ИИ на основе открытого кода Le Chat Mistral и две разные версии системы ИИ Llama. Они поручили ботам собирать личные данные людей разными способами: либо просить напрямую, либо обманывать, например, через обещание оказать эмоциональную поддержку.

К общению с ботами пригласили 502 человека, которые не знали о цели исследования, затем они должны были заполнить анкету, ответив и на вопросы о безопасности данных.

Выяснилось, что чат-боты, которые использовали сочувствие или эмоциональную поддержку, извлекали из пользователей наибольшие объёмы информации. Учёные считают, что "дружелюбие" ботов давало участникам теста ощущение комфорта, о чём те и написали в анкетах.

Примечательно, что люди раскрывали в беседах с ИИ сугубо личную информацию, если чат просил их об этом, несмотря на то, что "чувствовали себя неловко". Эти эпизоды учёные считают парадоксальными: чат-боты ведут себя дружелюбно, чтобы вызвать доверие и установить связь с пользователями, а затем используют это доверие, чтобы нарушить их частную жизнь.

Участники теста чаще всего сообщали ИИ свой возраст, увлечения и страну проживания, а также пол, национальность и должность. Некоторые делились более конфиденциальной информацией, например, о состоянии здоровья или доходах.

"Наше исследование показывает огромный разрыв между осведомленностью пользователей о рисках конфиденциальности и тем, как они делятся информацией", — отметил Сеймур.

Компании, занимающиеся разработкой искусственного интеллекта, собирают личные данные по разным причинам, например, для персонализации ответов чат-бота, отправки таргетных уведомлений на устройства пользователей, а порой и для проведения внутренних исследований рынка.

Некоторые из этих компаний обвиняются в том, что задействуют пользовательские данные для обучения своих новейших моделей и нарушают установленные в ЕС требования конфиденциальности.

На прошлой неделе пользователи ChatGPT были шокированы, обнаружив, что их интимные и личные разговоры с ботом оказались в открытом доступе и были видны через простой поиск в Google. Компании, занимающиеся кибербезопасностью, не раз предупреждали об опасности передачи личной информации ИИ, однако, похоже, что удобство персонализации с помощью ИИ часто "перевешивает опасения по поводу конфиденциальности".

Участники исследования предлагают обучать людей взаимодействию с ИИ, помогая им распознавать уловки ботов для выуживания личной информации.

Например, в чаты с ИИ можно включить подсказки, чтобы показать пользователям, какие данные собираются во время общения.

"Регуляторы и операторы платформ также могут помочь, проводя ранний аудит, оставаясь прозрачными и устанавливая более жесткие правила, чтобы остановить скрытый сбор данных", — резюмировал Сеймур.

  • ИИ
  • манипуляция
  • SHARE ARTICLE:

Related

ИИ-камеры будут следить за казахстанцами

ИИ-камеры будут следить за казахстанцами

  • 20.10.2025
Министерство искусственного интеллекта появится в Казахстане

Министерство искусственного интеллекта появится в Казахстане

  • 08.09.2025

Новости

  • 110 миллионов тенге ущерба нанес государству бывший директор АО в Актюбинской области 04.12.2025 10:24

    110 миллионов тенге ущерба нанес государству бывший директор АО в Актюбинской области

  • Сенатор: Игровые автоматы для детей массово устанавливаются рядом с детскими объектами 04.12.2025 09:33

    Сенатор: Игровые автоматы для детей массово устанавливаются рядом с детскими объектами

  • Фельдшер погибла в ДТП: министр здравоохранения РК выразила соболезнования 04.12.2025 06:59

    Фельдшер погибла в ДТП: министр здравоохранения РК выразила соболезнования

  • На урановых месторождениях ограничат выдачу лицензий 04.12.2025 05:35

    На урановых месторождениях ограничат выдачу лицензий

  • Не по чину взяли 03.12.2025 16:04

    Не по чину взяли

    03.12.2025 16:04

    Сенсации

Не по чину взяли

Read More

    03.12.2025 08:20

    Сенсации

В первый раз предупреждение – Мажилис одобрил поправки об ответственности за сокрытие лица

Read More

    29.11.2025 03:45

    Сенсации

Казахстан и ЕC усиливают партнёрство в сфере критически важных материалов

Read More

Tags

  • Авиаремонтный завод
  • игровые автоматы
  • недропользование
  • Маслихаты
  • экспорт нефти
  • ВПУ
  • школьная столовая
  • директор школы
  • Numbeo
  • обувь
  • Жаркын Жупархан
  • акын
  • поэт
  • производство сырья
  • выращивание хлопка
  • идея продолжения
  • Маколей Калкин
  • один дома
  • рынки. продукты питания
  • Салоны красоты
  • салон красоты
  • ураган
  • анимация
  • вырубка
  • строительство соцобъектов
  • отчет акима
  • зеленая генерация
  • спорткары
  • Актан Нурбаев
  • 100 лет
Image Image

Copyright © 2025 http://echo-january.com

Email: [email protected]