Чат-боти існують уже багато років, але розвиток великих мовних моделей, таких як ChatGPT і Google Bard, дав нове життя індустрії чат-ботів.
Зараз мільйони людей користуються чат-ботами штучного інтелекту по всьому світу, але є деякі важливі ризики та проблеми щодо конфіденційності, про які слід пам’ятати, якщо ви хочете випробувати один із цих інструментів.
1. Збір даних
Більшість людей не використовують чат-ботів лише для того, щоб привітатися. Сучасні чат-боти призначені для обробки та відповіді на складні запитання та запити, причому користувачі часто включають багато інформації у свої підказки. Навіть якщо ви ставите лише просте запитання, ви не дуже хочете, щоб воно виходило за межі вашої розмови.
Відповідно до Розділ підтримки OpenAI, ви можете будь-коли видалити журнали чату ChatGPT, і ці журнали будуть остаточно видалені з систем OpenAI через 30 днів. Однак компанія зберігатиме та переглядатиме певні журнали чату, якщо їх буде позначено як шкідливий або неприйнятний вміст.
Інший популярний чат-бот AI, Claude, також відстежує ваші попередні розмови. Центр підтримки Anthropic стверджує, що Клод відстежує «ваші підказки та результати в продукті, щоб надати вам стабільну роботу з продуктом протягом тривалого часу відповідно до ваших елементів керування». Ви можете видалити свої розмови з Claude, щоб він забув, про що ви говорили, але це не означає, що Anthropic негайно видалить ваші журнали зі своїх систем.
Тут, звичайно, виникає запитання: чи зберігаються мої дані чи ні? Чи використовує ChatGPT або інші чат-боти мої дані?
Але на цьому хвилювання не закінчуються.
Як навчається ChatGPT?
Щоб надавати інформацію, великі мовні моделі навчаються з величезними обсягами даних. Відповідно до Науковий фокус, тільки ChatGPT-4 отримав 300 мільярдів слів інформації протягом періоду навчання. Це не взято прямо з кількох енциклопедій. Натомість розробники чат-ботів використовують масу інформації з Інтернету для навчання своїх моделей. Це може включати дані з книг, фільмів, статей, записів у Вікіпедії, публікацій у блогах, коментарів і навіть сайтів із оглядами.
Майте на увазі, що, залежно від політики конфіденційності розробника чат-бота, деякі з вищезазначених джерел можуть не використовуватися під час навчання.
Багато хто критикував ChatGPT, стверджуючи, що це щось на зразок кошмару з точки зору конфіденційності, що ChatGPT не можна довіряти. Отже, чому це так?
Ось де все стає трохи розмитим. Якщо ви напряму запитаєте ChatGPT-3.5, чи має він доступ до оглядів продуктів або коментарів до статей, ви отримаєте тверду негативну відповідь. Як ви можете бачити на знімку екрана нижче, GPT-3.5 стверджує, що під час навчання йому не було надано доступу до коментарів користувачів до статей або оглядів продуктів.
Швидше, його навчали з використанням «різноманітного тексту з Інтернету, включаючи веб-сайти, книги, статті та інші загальнодоступні письмові матеріали до вересня 2021 року».
Але чи те ж саме стосується GPT-4?
Коли ми запитали GPT-4, нам сказали, що «OpenAI не використовував конкретних відгуків користувачів, особистих даних або коментарів до статей» під час навчання чат-бота. Крім того, GPT-4 повідомив нам, що його відповіді генеруються на основі «шаблонів у даних [it] який навчався, який переважно складається з книг, статей та іншого тексту з Інтернету».
Коли ми досліджували далі, GPT-4 стверджував, що певний вміст соціальних медіа справді може бути включений до даних навчання, але творці завжди залишатимуться анонімними. У GPT-4 конкретно зазначено, що «Навіть якщо контент із таких платформ, як Reddit, був частиною навчальних даних, [it doesn’t] мати доступ до конкретних коментарів, публікацій або будь-яких даних, які можна пов’язати з окремим користувачем».
Ще одна примітна частина відповіді GPT-4 полягає в наступному: «OpenAI не вказав чітко кожне джерело даних, що використовується». Звичайно, для OpenAI було б важко перерахувати джерела в 300 мільярдів слів, але це залишає простір для спекуляцій.
В ан Стаття Ars Technica, було заявлено, що ChatGPT дійсно збирає «особисту інформацію, отриману без згоди». У тій же статті було згадано контекстну цілісність, концепцію, яка стосується лише використання чиєїсь інформації в тому контексті, у якому вона використовувалася спочатку. Якщо ChatGPT порушить цю контекстну цілісність, дані людей можуть опинитися під загрозою.
Іншим моментом, який викликає занепокоєння, є відповідність OpenAI Загальному регламенту захисту даних (GDPR). Це нормативний акт, запроваджений Європейським Союзом для захисту даних громадян. Різні європейські країни, включаючи Італію та Польщу, розпочали розслідування щодо ChatGPT через занепокоєння щодо його відповідності GDPR. На короткий час ChatGPT навіть був заборонений в Італії через проблеми з конфіденційністю.
У минулому OpenAI погрожував вийти з ЄС через заплановані правила штучного інтелекту, але з тих пір це було відкликано.
ChatGPT може бути найбільшим чат-ботом зі штучним інтелектом на сьогодні, але проблеми конфіденційності чат-бота не починаються й не закінчуються на цьому постачальнику. Якщо ви користуєтеся тіньовим чат-ботом із тьмяною політикою конфіденційності, ваші розмови можуть бути використані не за призначенням або в його навчальних даних може бути використано дуже конфіденційну інформацію.
2. Крадіжка даних
Як і будь-який онлайн-інструмент або платформа, чат-боти вразливі до кіберзлочинності. Навіть якщо чат-бот зробив усе можливе, щоб захистити користувачів та їхні дані, завжди є шанс, що кмітливому хакеру вдасться проникнути в його внутрішні системи.
Якщо певна служба чат-бота зберігає вашу конфіденційну інформацію, таку як відомості про оплату вашої преміум-підписки, контактні дані тощо, це може бути викрадено та використано в разі кібератаки.
Це особливо вірно, якщо ви використовуєте менш безпечний чат-бот, розробники якого не інвестували в належний захист безпеки. Не тільки внутрішні системи компанії можуть бути зламані, але й ваш власний обліковий запис може бути скомпрометований, якщо він не має сповіщень про вхід або рівня автентифікації.
Тепер, коли чат-боти зі штучним інтелектом настільки популярні, кіберзлочинці, природно, почали використовувати цю галузь для своїх шахрайств. Фальшиві веб-сайти та плагіни ChatGPT стали серйозною проблемою після того, як чат-бот OpenAI став популярним наприкінці 2022 року, коли люди піддавалися шахрайству та розголошували особисту інформацію під виглядом легітимності та довіри.
У березні 2023 року MUO повідомила про підроблене розширення ChatGPT для Chrome, яке викрадає логіни Facebook. Плагін може використовувати бекдор Facebook, щоб зламати облікові записи високого профілю та викрасти файли cookie користувачів. Це лише один із прикладів численних фальшивих сервісів ChatGPT, призначених для обману невідомих жертв.
3. Зараження шкідливим програмним забезпеченням
Якщо ви не усвідомлюєте, що використовуєте тіньовий чат-бот, ви можете виявити, що чат-бот надає вам посилання на шкідливі веб-сайти. Можливо, чат-бот попередив вас про спокусливу роздачу або надав джерело однієї зі своїх заяв. Якщо оператори служби мають протиправні наміри, цілковитою метою платформи може бути поширення зловмисного програмного забезпечення та шахрайства за допомогою зловмисних посилань.
Крім того, хакери можуть скомпрометувати законну службу чат-бота та використовувати її для поширення зловмисного програмного забезпечення. Якщо цей чат-бот виявиться дуже людьми, тоді тисячі або навіть мільйони користувачів стануть піддані цьому шкідливому програмному забезпеченню. Фальшиві програми ChatGPT були навіть в Apple App Store, тож краще діяти обережно.
Загалом, ви ніколи не повинні натискати будь-які посилання, які надає чат-бот, перш ніж запустити його на веб-сайті для перевірки посилань. Це може здатися дратуючим, але завжди краще бути впевненим, що веб-сайт, на який ви перейшли, не має шкідливого дизайну.
Крім того, ви ніколи не повинні встановлювати будь-які плагіни та розширення для чат-ботів, попередньо не перевіривши їх легітимність. Проведіть невелике дослідження навколо програми, щоб перевірити, чи добре вона перевірена, а також запустіть пошук у розробника програми, щоб побачити, чи не знайдете ви щось сумнівне.
Чат-боти не схильні до проблем конфіденційності
Як і більшість сучасних онлайн-інструментів, чат-боти неодноразово піддавалися критиці через можливі недоліки безпеки та конфіденційності. Незалежно від того, чи йдеться про постачальника чат-ботів, коли мова заходить про безпеку користувачів, чи про постійні ризики кібератак і шахрайства, важливо знати, що ваша служба чат-бота збирає про вас і чи застосовує адекватні заходи безпеки.