Чат-боти: Нова Ера Комунікації та Загрози Конфіденційності
Хоча чат-боти існують уже тривалий час, справжній прорив у їх розвитку стався з появою потужних мовних моделей, таких як ChatGPT та Google Bard. Ці технології відкрили нову сторінку в історії чат-ботів.
Сьогодні мільйони користувачів по всьому світу активно використовують чат-боти на базі штучного інтелекту. Однак, важливо пам’ятати про певні ризики та проблеми конфіденційності, які слід враховувати перед тим, як почати користуватися цими інструментами.
1. Збір інформації
Більшість користувачів звертаються до чат-ботів не просто для вітання. Сучасні чат-боти здатні обробляти складні запити та надавати вичерпні відповіді, а користувачі часто діляться великою кількістю інформації у своїх повідомленнях. Навіть якщо ви ставите просте запитання, ви не завжди хочете, щоб деталі вашої розмови стали надбанням інших.
Згідно з розділом підтримки OpenAI, ви можете видалити історію чату з ChatGPT в будь-який момент, і ці записи будуть остаточно стерті з систем OpenAI через 30 днів. Проте, компанія залишає за собою право зберігати та переглядати певні журнали, якщо вони будуть позначені як шкідливі або неприйнятні.
Інший популярний чат-бот, Claude, також зберігає історію ваших попередніх діалогів. Як зазначається в центрі підтримки Anthropic, Claude відстежує “ваші запити та результати, щоб забезпечити стабільну роботу з продуктом протягом тривалого часу, відповідно до ваших налаштувань”. Ви можете видалити історію розмов з Claude, щоб бот “забув” про що ви говорили, але це не гарантує, що Anthropic негайно видалить ваші записи зі своїх систем.
Звичайно, виникає закономірне питання: чи зберігаються мої дані? Чи використовують ChatGPT або інші чат-боти мою інформацію?
Але на цьому хвилювання не закінчуються.
Як відбувається навчання ChatGPT?
Щоб надавати відповіді, великі мовні моделі навчаються на величезних масивах даних. За інформацією Science Focus, ChatGPT-4 отримав 300 мільярдів слів інформації під час навчання. Ці дані не беруться лише з енциклопедій. Розробники чат-ботів використовують масу інформації з інтернету для навчання своїх моделей, включаючи книги, фільми, статті, записи у Вікіпедії, публікації в блогах, коментарі та навіть відгуки.
Важливо зазначити, що залежно від політики конфіденційності розробника, деякі з перерахованих джерел можуть не використовуватись у процесі навчання.
Багато хто критикує ChatGPT, стверджуючи, що він становить загрозу конфіденційності та не заслуговує на довіру. Чому?
Тут все стає трохи заплутаним. Якщо ви безпосередньо запитаєте ChatGPT-3.5, чи має він доступ до оглядів товарів або коментарів під статтями, відповідь буде однозначно негативною. Як видно на скріншоті нижче, GPT-3.5 стверджує, що під час навчання йому не надавали доступу до коментарів користувачів або оглядів товарів.
Його навчали, використовуючи “різноманітні тексти з Інтернету, включаючи веб-сайти, книги, статті та інші загальнодоступні матеріали до вересня 2021 року”.
Але чи стосується це також GPT-4?
На запитання до GPT-4, нам відповіли, що “OpenAI не використовував конкретні відгуки користувачів, персональні дані або коментарі під статтями” під час навчання. Крім того, GPT-4 повідомив, що його відповіді генеруються на основі “шаблонів у даних, на яких він навчався, що переважно складаються з книг, статей та інших текстів з Інтернету”.
Подальші дослідження показали, що певний контент із соціальних мереж дійсно може бути включений до даних навчання, але автори завжди залишатимуться анонімними. GPT-4 конкретно зазначив, що “навіть якщо контент з таких платформ як Reddit був частиною навчальних даних, він не має доступу до конкретних коментарів, публікацій або будь-якої інформації, яка може бути пов’язана з окремим користувачем”.
Ще одна важлива деталь відповіді GPT-4: “OpenAI не розкриває кожне джерело даних”. Звичайно, для OpenAI було б важко перерахувати джерела в 300 мільярдів слів, але це створює простір для припущень.
У статті Ars Technica стверджується, що ChatGPT збирає “персональну інформацію без згоди”. У статті також згадується концепція контекстної цілісності, яка стосується використання інформації лише в тому контексті, в якому вона використовувалася спочатку. Якщо ChatGPT порушить цю цілісність, дані користувачів можуть опинитися під загрозою.
Інший аспект, що викликає занепокоєння, це відповідність OpenAI Загальному регламенту захисту даних (GDPR). Це нормативний акт, запроваджений Європейським Союзом для захисту даних громадян. Різні європейські країни, включаючи Італію та Польщу, почали розслідування щодо ChatGPT через стурбованість його відповідністю GDPR. На деякий час ChatGPT навіть був заборонений в Італії через проблеми з конфіденційністю.
У минулому OpenAI погрожував вийти з ЄС через заплановані правила щодо штучного інтелекту, але пізніше відмовився від цих намірів.
ChatGPT може бути найпопулярнішим чат-ботом зі штучним інтелектом на сьогодні, але проблеми конфіденційності чат-ботів не обмежуються цим постачальником. Якщо ви використовуєте маловідомий чат-бот з нечіткою політикою конфіденційності, ваші розмови можуть бути використані не за призначенням, або до його навчальних даних може потрапити дуже конфіденційна інформація.
2. Викрадення даних
Як і будь-який онлайн-інструмент, чат-боти вразливі до кіберзлочинності. Навіть якщо чат-бот робить все можливе для захисту користувачів та їхніх даних, завжди є ймовірність того, що хакер зможе проникнути в його системи.
Якщо служба чат-бота зберігає вашу конфіденційну інформацію, наприклад дані про оплату підписки, контактну інформацію тощо, вона може бути викрадена під час кібератаки.
Це особливо актуально для менш захищених чат-ботів, розробники яких не інвестували в належний захист. Можуть бути зламані не тільки внутрішні системи компанії, але й ваш обліковий запис, якщо він не має сповіщень про вхід або багаторівневої автентифікації.
Через популярність чат-ботів зі штучним інтелектом, кіберзлочинці почали використовувати цю сферу для своїх шахрайських схем. Фейкові веб-сайти та плагіни ChatGPT стали серйозною проблемою після того, як чат-бот OpenAI став популярним наприкінці 2022 року. Користувачі потрапляли на шахрайські сайти та розкривали особисту інформацію, повіривши у їх легітимність.
У березні 2023 року MUO повідомив про підроблене розширення ChatGPT для Chrome, яке викрадало дані для входу в Facebook. Цей плагін може використовувати бекдор Facebook для злому облікових записів та крадіжки файлів cookie користувачів. Це лише один із багатьох прикладів фейкових сервісів ChatGPT, розроблених для обману непідготовлених жертв.
3. Зараження шкідливим програмним забезпеченням
Якщо ви не усвідомлюєте, що використовуєте сумнівний чат-бот, ви можете отримати від нього посилання на шкідливі веб-сайти. Чат-бот може запропонувати вам участь у розіграші або надати посилання на джерело інформації. Якщо оператори служби мають недобрі наміри, метою платформи може бути поширення зловмисного програмного забезпечення за допомогою шкідливих посилань.
Крім того, хакери можуть скомпрометувати легітимну службу чат-бота та використовувати її для поширення шкідливого програмного забезпечення. Якщо такий чат-бот має велику кількість користувачів, тисячі або навіть мільйони з них можуть стати жертвами шкідливих програм. Фейкові програми ChatGPT були навіть в Apple App Store, тому важливо бути обережними.
Загалом, ніколи не варто переходити за посиланнями, наданими чат-ботом, не перевіривши їх на спеціалізованих веб-сайтах. Хоча це може здаватися зайвим, краще переконатися, що веб-сайт не є шкідливим.
Також не встановлюйте плагіни та розширення для чат-ботів без попередньої перевірки їх легітимності. Проведіть дослідження програми, щоб переконатися, що вона пройшла належну перевірку, та перевірте інформацію про розробника.
Чат-боти не є ідеальними з точки зору конфіденційності
Як і більшість сучасних онлайн-інструментів, чат-боти неодноразово піддавалися критиці через можливі недоліки безпеки та конфіденційності. Незалежно від того, йдеться про відповідальність постачальника чат-бота за безпеку користувачів, чи про постійні ризики кібератак, важливо розуміти, яку інформацію про вас збирає ваша служба чат-бота і чи застосовує вона адекватні заходи безпеки.