10 етичних дилем генеративного ШІ, які ми не можемо ігнорувати

Революційний штучний інтелект (ШІ) та його можливості не залишать без уваги жодну галузь чи галузь. І це особливо генеративний штучний інтелект, який створює ажіотаж серед компаній, окремих людей і лідерів ринку в трансформації повсякденних операцій.

Вражаюча здатність Generative AI створювати різноманітний і високоякісний контент — від тексту та зображень до відео та музики — значно вплинула на багато сфер.

Згідно з дослідженням Acumen, очікується, що глобальний генеративний ринок ШІ досягне 208,8 мільярдів доларів до 2032 рокузростаючи на CAGR на 35,1% між 2023 і 2032 роками.

Однак розвиток цієї потужної технології супроводжується декількома етичними проблемами та проблемами, які не можна ігнорувати, особливо пов’язаними з конфіденційністю даних, авторським правом, глибокими фейками та проблемами відповідності.

У цій статті ми детально зануримося в ці генеративні етичні проблеми штучного інтелекту — що це таке та як ми можемо їм запобігти. Але спершу давайте подивимося на Керівні принципи етики, розроблені ЄС у 2019 році для надійного ШІ.

Рекомендації з етики для надійного ШІ

У 2019 році була створена експертна група високого рівня зі штучного інтелекту Рекомендації щодо етики надійного штучного інтелекту (AI).

Ця інструкція була опублікована для усунення потенційних небезпек штучного інтелекту на той час, включаючи порушення конфіденційності даних і конфіденційності, дискримінаційні практики, загрозу шкідливого впливу на треті сторони, шахрайський штучний інтелект і шахрайські дії.

Керівництво пропонує ці три сфери, на які повинен покладатися надійний ШІ:

  • Етичний: має поважати етичні цінності та принципи.
  • Законний: має дотримуватися всіх застосовних законів і правил.
  • Надійний: він повинен забезпечувати надійну безпеку з точки зору технічної безпеки та соціального середовища.

Крім того, в інструкції також виділено сім ключових вимог, яким повинна відповідати система ШІ, щоб вважатися надійною. Вимоги такі:

  • Нагляд з боку людини: надійна система штучного інтелекту повинна розширити можливості нагляду та розвідки з боку людини, дозволяючи людям приймати обґрунтовані рішення відповідно до їхніх основних прав.
  • Технічна безпека та надійність: системи штучного інтелекту мають бути стійкими, точними, надійними та відтворюваними, а також мати запасний план на випадок, якщо щось піде не так. Це допомагає запобігти та мінімізувати ризики будь-якої ненавмисної шкоди.
  • Прозорість даних: система даних штучного інтелекту має бути прозорою та мати можливість пояснювати рішення, які вона приймає, зацікавленим сторонам. Крім того, люди повинні бути обізнані та поінформовані про можливості та обмеження системи ШІ.
  • Конфіденційність і керування даними: окрім забезпечення безпеки даних, система штучного інтелекту має забезпечувати адекватні заходи керування даними, враховуючи якість даних, цілісність і законний доступ до них.
  • Підзвітність: системи штучного інтелекту повинні впроваджувати механізми, які забезпечують підзвітність, відповідальність і чутність, які дозволяють оцінювати дані, алгоритми або процеси проектування.
  • Різноманітність і відсутність дискримінації: Надійний ШІ повинен уникати несправедливих упереджень, які можуть мати негативні наслідки. Натомість він має забезпечувати різноманітність і справедливість і бути доступним для кожного, незалежно від його інвалідності.
  • Суспільне та екологічне благополуччя: системи штучного інтелекту мають бути екологічно чистими та стійкими, гарантуючи, що вони також приносять користь майбутнім поколінням.
  • Незважаючи на те, що ці рекомендації зробили значний вплив на галузь штучного інтелекту, все ще існують занепокоєння, які навіть посилюються з розвитком генеративного штучного інтелекту.

    Generative AI and The Rise of Ethical Concerns

    Коли говорити про етику в ШІ, генеративний ШІ створює унікальний набір проблем, особливо з появою генеративних моделей, таких як OpenAI і ChatGPT.

    Особлива природа генеративного штучного інтелекту викликає етичні проблеми, головним чином у таких сферах, як дотримання нормативних вимог, безпека та конфіденційність даних, контроль, проблеми навколишнього середовища, авторське право та право власності на дані.

    Наприклад, генеративний штучний інтелект може створювати текст, схожий на людину, включаючи зображення та відео, викликаючи занепокоєння щодо глибоких фейків, створення фейкових новин та іншого шкідливого вмісту, який може завдати шкоди та поширити дезінформацію. Крім того, люди також можуть відчути втрату контролю завдяки рішенням моделей ШІ на основі їхніх алгоритмів.

      Як керувати сповіщеннями календаря програми Outlook

    Джеффрі Хінтон, так званий хрещений батько штучного інтелекту, сказав, що розробники штучного інтелекту повинні докласти зусиль, щоб зрозуміти, як моделі штучного інтелекту можуть намагатися забрати контроль у людей. Подібним чином багато експертів і дослідників ШІ стурбовані можливостями та етикою ШІ.

    Головний науковий співробітник Facebook і професор Нью-Йоркського університету Ян ЛеКун каже, що проблеми та занепокоєння, які штучний інтелект може викликати у людства, є «абсурдно смішними».

    Оскільки генеративний штучний інтелект надає організаціям і окремим особам безпрецедентні можливості змінювати та маніпулювати даними, вирішення цих проблем є надзвичайно важливим.

    Давайте розглянемо ці проблеми більш детально.

    Створення та розповсюдження шкідливого вмісту

    На основі текстових підказок, які ми надаємо, системи штучного інтелекту автоматично створюють і генерують вміст, який може бути точним і корисним, але водночас шкідливим.

    Генеративні системи штучного інтелекту можуть створювати шкідливий вміст навмисно чи ненавмисно через такі причини, як галюцинації штучного інтелекту. Ситуації, які найбільше тривожать, включають технологію deepfake, яка створює неправдиві зображення, тексти, аудіо та відео, маніпулюючи особистістю та голосом людини для поширення мови ненависті.

    Приклади створення та розповсюдження шкідливого вмісту ШІ можуть включати:

    • Електронна пошта або публікація в соціальних мережах, створена штучним інтелектом, надіслана та опублікована від імені організації, яка може містити образливі та розсудливі висловлювання, що завдає шкоди настроям її співробітників або клієнтів.
    • Зловмисники також можуть використовувати deepfake для створення та розповсюдження згенерованих штучним інтелектом відео, на яких публічні особи, наприклад політики чи актори, говорять те, чого насправді не говорили. Відео з Бараком Обамою є одним із найпопулярніших прикладів дипфейку.

    Поширення такого шкідливого вмісту може мати серйозні наслідки та негативні наслідки для репутації та довіри до особи та організації.

    Крім того, контент, створений штучним інтелектом, може підсилити упередження, навчаючись на наборах навчальних даних, створюючи більш упереджений, ненависний і шкідливий контент, що робить його однією з найбільш занепокоєних етичних дилем генеративного штучного інтелекту.

    Оскільки генеративні моделі штучного інтелекту навчаються на великій кількості даних, іноді це може призвести до неоднозначності повноважень і проблем з авторським правом.

    Коли інструменти штучного інтелекту генерують зображення чи коди та створюють відео, джерело даних із навчального набору даних, на яке вони посилаються, може бути невідомим, у результаті чого вони можуть порушувати права інтелектуальної власності чи авторські права інших осіб чи організацій.

    Ці порушення можуть призвести до фінансової, юридичної та репутаційної шкоди організації, що призведе до дорогих судових позовів і суспільної реакції.

    Порушення конфіденційності даних

    Основні навчальні дані Generative AI Large Language Models (LLM) можуть містити конфіденційну та особисту інформацію, яку також називають персональною інформацією (PII).

    The Міністерство праці США визначає ідентифікаційну інформацію як дані, які безпосередньо ідентифікують особу за такими деталями, як її ім’я, адреса, адреса електронної пошти, номер телефону, номер соціального страхування або інший код чи персональний ідентифікаційний номер.

    Порушення даних або несанкціоноване використання цих даних може призвести до крадіжки особистих даних, неправильного використання даних, маніпуляцій або дискримінації, що спричинить правові наслідки.

    Наприклад, модель штучного інтелекту, навчені особисті дані історії хвороби можуть ненавмисно створити профіль, який може бути дуже схожим на реального пацієнта, що спричиняє проблеми з безпекою та конфіденційністю даних і порушує положення Закону про перенесення та підзвітність медичного страхування (HIPAA).

      Як знайти конфліктні файли на Google Диску

    Посилення існуючого зміщення

    Подібно до моделі штучного інтелекту, навіть генеративна модель штучного інтелекту настільки хороша, наскільки хороший набір навчальних даних, на якому вона навчається.

    Отже, якщо навчальний набір даних складається з упередженості, генеративний штучний інтелект підсилює це існуюче упередження, генеруючи упереджені результати. Ці упередження, як правило, переважають серед існуючих суспільних упереджень і можуть містити расистські, сексистські чи здібні підходи в онлайн-спільнотах.

    Відповідно до Звіт про індекс штучного інтелекту за 2022 рік, 2021 розробив модель з 280 мільярдами параметрів, що представляє 29% збільшення рівня зміщення та токсичності. Таким чином, хоча AI LLM стають більш спроможними, ніж будь-коли, вони також стають більш упередженими на основі наявних навчальних даних.

    Вплив на ролі та моральний дух працівників

    Генеративні моделі штучного інтелекту підвищують продуктивність робочої сили шляхом автоматизації повсякденних дій і виконання повсякденних завдань, таких як написання, кодування, аналіз, створення вмісту, узагальнення, підтримка клієнтів тощо.

    Хоча, з одного боку, це сприяє підвищенню продуктивності робочої сили, з іншого боку, зростання генеративного ШІ також передбачає втрату робочих місць. Відповідно до Звіт McKinseyЗгідно з оцінками трансформації робочої сили та впровадження штучного інтелекту, половина сучасних робочих завдань і дій може бути автоматизована між 2030 і 2060 роками, а 2045 рік є середнім роком.

    Хоча впровадження генеративного штучного інтелекту означає втрату робочої сили, це не означає, що потрібно припиняти трансформацію штучного інтелекту чи її потребу. Натомість службовцям і робітникам потрібно буде підвищувати кваліфікацію, а організаціям потрібно буде підтримувати працівників у переході на роботу без втрати роботи.

    Відсутність прозорості та зрозумілості

    Прозорість є одним із основних принципів етичного ШІ. Однак природа генеративного штучного інтелекту є чорною скринькою, непрозорою та надзвичайно складною, тому досягти високого рівня прозорості стає складно.

    Через складну природу генеративного штучного інтелекту важко визначити, як він прийшов до конкретної відповіді/результату, або навіть зрозуміти фактори, що сприяли прийняттю ним рішення.

    Відсутність зрозумілості та ясності часто викликає занепокоєння щодо неправильного використання та маніпулювання даними, точності та надійності вихідних даних і якості тестування. Це особливо серйозне занепокоєння для програм і програмного забезпечення з високими ставками.

    Вплив на навколишнє середовище

    Генеративні моделі штучного інтелекту вимагають значної обчислювальної потужності, особливо моделі з більшим масштабом. Через це ці моделі споживають багато енергії, що потенційно може негативно позначитися на навколишньому середовищі, включаючи викиди вуглецю та глобальне потепління.

    Хоча це нехтований фактор етичного штучного інтелекту, забезпечення екологічності є необхідним для стійких та енергоефективних моделей даних.

    Чесність і справедливість

    Потенціал генеративного штучного інтелекту виробляти неадекватні, неточні, образливі та упереджені відповіді є ще однією серйозною проблемою щодо забезпечення етики в штучному інтелекті.

    Це може виникнути через такі проблеми, як нечутливі до расистської точки зору зауваження, що впливають на маргіналізовані спільноти та створюють глибокі фейкові відео та зображення, які створюють упереджені заяви, спотворюють правду та створюють вміст, який шкодить поширеним стереотипам і упередженням.

    Відповідальність

    Конвеєр створення та розгортання навчальних даних генеративних моделей штучного інтелекту часто ускладнює атрибут відповідальності штучного інтелекту.

    У випадках нещасних випадків, суперечок і безпрецедентних обставин невизначена ієрархія та структура підзвітності призводять до юридичних ускладнень, вказівки пальцями та погіршують довіру до бренду.

    Без надійної ієрархії відповідальності ця проблема може миттєво погіршитися, посиливши імідж бренду та завдавши шкоди репутації та довірі до бренду.

    Автономія та контроль

    Оскільки генеративні моделі ШІ автоматизують завдання та процеси прийняття рішень у різних сферах, як-от охорона здоров’я, право та фінанси, це призводить до втрати контролю та індивідуальної автономії. Це пояснюється тим, що рішення в основному приймаються алгоритмами ШІ, а не людським судженням.

    Наприклад, без втручання людини керована штучним інтелектом автоматизована система затвердження позик може визначити здатність особи взяти позику або кредитоспроможність на основі її кредитного рейтингу та історії погашення.

      Знайте про основну схему: зірка проти сніжинки

    Крім того, генеративні моделі ШІ також іноді призводять до втрати професійної автономії. Наприклад, у таких сферах, як журналістика, мистецтво та творче письмо, генеративні моделі штучного інтелекту створюють контент, який кидає виклик і конкурує з роботою, створеною людьми, — викликаючи занепокоєння щодо переміщення з роботи та професійної автономії.

    Як пом’якшити етичні проблеми за допомогою Generative AI? Рішення та найкращі практики

    Незважаючи на те, що розвиток і технологічний прогрес призвели до того, що генеративний ШІ приносить велику користь суспільству, вирішення етичних проблем і забезпечення відповідальних, регульованих, підзвітних і безпечних практик ШІ також мають вирішальне значення.

    Крім розробників моделей штучного інтелекту та окремих осіб, для підприємств, які використовують генеративні системи штучного інтелекту, також важливо автоматизувати свої процеси, щоб забезпечити найкращі практики ШІ та вирішити відповідні етичні проблеми.

    Ось найкращі практики, які організації та підприємства повинні застосувати, щоб забезпечити етичний генеративний ШІ:

    ✅ Інвестуйте в надійну безпеку даних: використання передових рішень безпеки даних, таких як шифрування та анонімізація, допомагає захистити конфіденційні дані, особисті дані та конфіденційну інформацію компанії, вирішуючи етичну проблему порушення конфіденційності даних, пов’язану з генеративним ШІ.

    ✅ Включайте різноманітні погляди: організації повинні включати різноманітні погляди в набір навчальних даних ШІ, щоб зменшити упередженість і забезпечити справедливість і справедливе прийняття рішень. Це включає в себе залучення людей з різним походженням і досвідом, а також уникнення розробки систем штучного інтелекту, які завдають шкоди певним групам осіб.

    ✅ Будьте в курсі ландшафту штучного інтелекту: ландшафт штучного інтелекту постійно розвивається з новими інструментами та технологіями, що породжує нові етичні проблеми. Підприємства повинні вкладати ресурси та час, щоб зрозуміти нові правила ШІ та бути в курсі нових змін, щоб забезпечити найкращі практики ШІ.

    ✅ Впровадження цифрових підписів: експерти пропонують ще одну найкращу практику, щоб подолати генеративні проблеми штучного інтелекту, – це використання цифрових підписів, водяних знаків і технології блокчейн. Це допомагає відстежити походження створеного вмісту та виявити потенційне несанкціоноване використання чи підробку вмісту.

    ✅ Розробіть чіткі етичні вказівки та політику використання: встановлення чітких етичних вказівок і політики використання для використання та розробки штучного інтелекту має вирішальне значення для охоплення таких тем, як підзвітність, конфіденційність і прозорість. Крім того, використовуючи встановлені рамки, такі як Структура управління ризиками ШІ або Етичні рекомендації ЄС щодо надійного ШІ допомагає уникнути зловживання даними.

    ✅ Відповідність глобальним стандартам: організації повинні ознайомитися з глобальними стандартами та рекомендаціями, такими як Етика штучного інтелекту ЮНЕСКО керівні принципи, які підкреслюють чотири основні цінності, включаючи права та гідність людини, різноманітність та інклюзивність, мирне та справедливе суспільства та процвітання навколишнього середовища.

    ✅ Сприяти відкритості та прозорості: організації повинні сприяти використанню та прозорості розробки штучного інтелекту, щоб зміцнити довіру своїх користувачів і клієнтів. Підприємствам важливо чітко визначити роботу систем ШІ, як вони приймають рішення та як вони збирають і використовують дані.

    ✅ Послідовно оцінюйте та контролюйте системи штучного інтелекту: нарешті, послідовне оцінювання та моніторинг систем штучного інтелекту має вирішальне значення, щоб підтримувати їх узгодженість та етичність відповідно до встановлених стандартів і рекомендацій щодо штучного інтелекту. Отже, організації повинні проводити регулярні оцінки та аудити ШІ, щоб уникнути ризиків етичних проблем.

    Висновок

    Хоча генеративний ШІ пропонує значні переваги та революціонізує численні сектори, розуміння та вирішення навколишніх етичних проблем має вирішальне значення для сприяння відповідальному та безпечному використанню ШІ.

    Етичні проблеми щодо генеративного штучного інтелекту, як-от порушення авторських прав, порушення конфіденційності даних, розповсюдження шкідливого контенту та відсутність прозорості, вимагають суворих правил і етичних рекомендацій для забезпечення правильного балансу та надійного та підзвітного використання штучного інтелекту.

    Організації можуть максимально використати потужність штучного інтелекту з мінімальними етичними ризиками та занепокоєннями, впроваджуючи та розробляючи етичні правила та рекомендації та дотримуючись найкращих практик ШІ.

    Далі перегляньте статистику/тенденції штучного інтелекту, які вразять вас.