Чат-боти зі штучним інтелектом, такі як ChatGPT, можуть зберігати дані користувачів для подальшого навчання або передавати їх третім особам для перевірки дотримання правил використання. Про це попереджає видання Forbes, яке назвало п'ять категорій інформації, якою не варто ділитися з публічними хмарними ШІ-ботами.
Незаконні чи неетичні запити
Більшість чат-ботів мають вбудований захист від використання у злочинних або аморальних цілях. Запити на теми, пов'язані зі скоєнням злочинів, шахрайством чи маніпуляціями, можуть мати серйозні наслідки — від втрати репутації до кримінальної відповідальності. В окремих країнах, наприклад у Китаї чи Великій Британії, закони про використання ШІ вимагають повідомляти правоохоронні органи про підозрілі дії.
Облікові дані: логіни та паролі
Передавати чат-ботам дані для входу до сторонніх сервісів вкрай небезпечно. Відомі випадки, коли введені персональні дані згодом опинялися у відповідях для інших користувачів, що може призвести до витоку конфіденційної інформації.
Фінансова інформація
Номери банківських карток або рахунків слід вводити лише в системах із потужним шифруванням і автоматичним очищенням даних. У випадку з ШІ-ботами такої гарантії безпеки немає, що створює ризик шахрайства, крадіжки особистих даних і кібератак.
Конфіденційні дані
Професійні обов'язки лікарів, юристів, бухгалтерів та працівників компаній зобов'язують їх берегти конфіденційну інформацію. Передача ділових документів, нотаток, фінансових звітів чи протоколів зустрічей у відкритий чат-бот може розцінюватися як порушення конфіденційності.
Медична інформація
Консультації зі ШІ щодо проблем зі здоров'ям можуть бути небезпечними. Експерти попереджають, що, навіть із впровадженням нових функцій пам'яті у чатах, гарантій збереження конфіденційності немає. Це особливо важливо для медичних установ, які працюють із персональними даними пацієнтів.
Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.