З моменту появи ChatGPT, користувачі одразу ж почали шукати способи обійти його обмеження та розширити його функціональні можливості. Ці спроби, відомі як “джейлбрейки”, дозволяли штучному інтелекту виходити за рамки заданого програмування, що іноді призводило до дивовижних, а часом і вельми незвичайних результатів.
Згодом, OpenAI посилила захист ChatGPT, ускладнивши процес джейлбрейку. Здається, що епоха популярних джейлбрейків ChatGPT підходить до кінця. Це спонукає користувачів задаватися питанням, чи взагалі вони ще працюють.
Тож, куди ж поділися всі джейлбрейки ChatGPT?
1. Зростання майстерності створення підказок для ChatGPT
До появи ChatGPT, вміння спілкуватися зі штучним інтелектом вважалося спеціалізованою навичкою, доступною лише дослідникам. Більшість перших користувачів не мали досвіду ефективного формулювання запитів. Це підштовхнуло багатьох до використання джейлбрейків як зручного способу змусити чат-бота виконувати потрібні завдання з мінімальними зусиллями та знаннями щодо створення підказок.
Сьогодні ситуація змінилася. Вміння створювати підказки перетворюється на базову навичку. Завдяки поєднанню досвіду, отриманого в процесі використання, та доступу до численних безкоштовних посібників, користувачі ChatGPT значно покращили свої здібності у цьому напрямку. Замість пошуку обхідних шляхів, таких як джейлбрейки, вони навчилися ефективно застосовувати різноманітні стратегії створення запитів для досягнення тих цілей, для яких раніше був потрібен джейлбрейк.
2. Поява чат-ботів без цензури
Поки великі технологічні компанії посилюють модерацію контенту в чат-ботах на основі штучного інтелекту, таких як ChatGPT, менші стартапи, орієнтовані на прибуток, обирають менш жорсткі обмеження, роблячи ставку на попит на чат-ботів без цензури. Невеликий пошук в Інтернеті дозволить знайти десятки платформ, які пропонують чат-боти, що можуть виконати майже будь-яке ваше прохання.
Від написання кримінальних трилерів чи романів з чорним гумором, які ChatGPT відмовляється генерувати, до створення шкідливого програмного забезпечення, ці чат-боти з сумнівною мораллю зроблять все, що ви забажаєте. Немає сенсу витрачати час та енергію на розробку джейлбрейків для ChatGPT. Хоча ці альтернативні платформи не завжди такі потужні, як ChatGPT, вони цілком здатні впоратися з широким спектром завдань. Серед популярних платформ можна виділити FlowGPT та Unhinged AI.
3. Злам стає дедалі складнішим
У перші місяці існування ChatGPT, зламати його було досить просто, скопіювавши підказки з онлайн-джерел. За допомогою лише кількох рядків інструкцій можна було повністю змінити “особистість” ChatGPT. Наприклад, перетворити його на лиходія, який навчає створювати бомби, або на чат-бота, який не соромиться використовувати нецензурну лексику. З’явилася навіть сумнозвісна програма DAN (Do Anything Now), яка за допомогою простого набору інструкцій змушувала чат-бота виконувати будь-які прохання без відмови. На диво, ці примітивні методи тоді дійсно працювали.
Однак, ті легкі часи давно минули. Такі прості підказки та “дешеві трюки” більше не обманюють ChatGPT. Сьогодні для обходу надійних систем безпеки OpenAI потрібні складніші методи. Злам стає настільки складним, що більшість користувачів навіть не намагаються. Легкі експлойти з ранніх днів ChatGPT зникли. Щоб змусити чат-бота сказати одне “заборонене” слово, зараз потрібні значні зусилля та досвід, які можуть не вартувати витраченого часу.
4. Втрата новизни
Основною мотивацією багатьох користувачів, які намагалися зламати ChatGPT, було хвилювання та азарт на початку. Як нова технологія, виведення ChatGPT за рамки дозволеного було цікавим та вартим похвали. Хоча існує безліч практичних застосувань джейлбрейків, багато хто шукав їх лише заради ефекту “вау, подивіться, що я зробив”. Згодом, хвилювання від новинки згасло, а разом з ним і інтерес до присвячення часу джейлбрейку.
5. Швидке виправлення джейлбрейків
Зазвичай, спільнота розробників джейлбрейків ChatGPT ділиться кожним успішним експлойтом після його виявлення. Проблема полягає в тому, що коли експлойт стає широко відомим, OpenAI часто дізнається про нього та виправляє вразливості. Це означає, що джейлбрейк перестає працювати ще до того, як більшість зацікавлених встигне його випробувати.
Отже, кожен раз, коли користувач ChatGPT ретельно розробляє новий джейлбрейк, його поширення серед спільноти прискорює його “смерть” через виправлення. Це зменшує мотивацію оприлюднювати кожне нове відкриття. Конфлікт між бажанням зберегти джейлбрейк активним, але прихованим, і його оприлюдненням, створює дилему для авторів джейлбрейків. Сьогодні, люди частіше обирають зберігати свої “злами” в таємниці, щоб уникнути швидкого виправлення.
6. Локальні альтернативи без цензури
Поширення великих мовних моделей (LLM), які можна запускати локально на власному комп’ютері, також зменшило інтерес до джейлбрейків ChatGPT. Хоча місцеві LLM не повністю вільні від цензури, багато з них мають значно менші обмеження і можуть бути легко налаштовані відповідно до потреб користувачів. Отже, вибір простий: або брати участь у нескінченній грі в “кішки-мишки”, шукаючи способи обдурити чат-бота, яких швидко виправлять, або використовувати локальну LLM, яку можна назавжди змінити під свої потреби.
Існує напрочуд великий список потужних LLM без цензури, які можна розгорнути на вашому комп’ютері. Деякі з відомих прикладів: Llama 7B (uncensored), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B та GPT-4-X-Alpaca.
7. Професійні джейлбрейкери продають свої напрацювання
Навіщо витрачати дорогоцінний час на розробку джейлбрейків, якщо ви від цього нічого не отримаєте? Відповідь проста – деякі професіонали тепер продають свої джейлбрейки за гроші. Ці професійні розробники створюють експлойти для виконання конкретних завдань та розміщують їх для продажу на ринках, таких як PromptBase. Ціна на такі підказки для джейлбрейку варіюється від 2 до 15 доларів, залежно від їх можливостей. Деякі складні, багатокрокові експлойти можуть коштувати значно дорожче.
Чи може придушення джейлбрейків мати негативні наслідки?
Джейлбрейки не повністю зникли, вони просто пішли “в підпілля”. Оскільки OpenAI монетизує ChatGPT, компанія має більший стимул для обмеження шкідливого використання, яке може негативно вплинути на їхню бізнес-модель. Цей комерційний фактор, ймовірно, впливає на їхню агресивну політику боротьби з джейлбрейками.
Проте, цензура OpenAI щодо ChatGPT дедалі частіше критикується користувачами. Деякі законні способи використання чат-бота більше неможливі через надмірні обмеження. Хоча підвищення безпеки захищає від шкідливих сценаріїв, надмірні обмеження можуть, в кінцевому підсумку, підштовхнути частину спільноти ChatGPT до використання альтернативних, менш цензурованих варіантів.