Інтернет завжди був наповнений дезінформацією, але, принаймні, було не важко відокремити факти від художньої літератури з невеликими зусиллями. Підйом складних інструментів штучного інтелекту назавжди змінило це, зробивши скептицизм важливішим, ніж будь -коли.
Заглиблені
Слово " заглиблюватися ”Включає цілу родину технологій, які поділяють використання нейронних мереж глибокого навчання для досягнення своїх індивідуальних цілей. Deppakes стала увагою громадськості при заміні когось обличчя у відео стало легкою. Тож хтось міг би замінити стикатися з акторами на президент США або замінити рот президента наодинці і змусити їх говорити речі, які ніколи не траплялися.
На деякий час людині доведеться представляти себе голосом, але технологія DeepFake також може повторити голоси. Технологія DeepFake тепер може використовуватися в режимі реального часу, що відкриває можливість того, що хакер чи інший прихильний актор може представити когось у відеодзвінку чи трансляції в режимі реального часу. Будь -який Відео "докази", які ви бачите в Інтернеті, повинні розглядатися як потенційна заглиблення, поки воно не буде перевірено.
AI -генерація зображень
AI генератори зображень спричинили a Змішати в спільноті художників Для всіх наслідків, які він має для тих, хто заробляє на життя художником, і чи загрожує комерційним художникам замінити. Те, що не викликає майже стільки дискусій, - це потенціал дезінформації завдяки цій технології.
Системи генерації зображень AI можуть створювати фотореалістичні зображення цілою тканиною за допомогою текстових підказок, прикладних зображень та оригінальних зображень з метою маніпуляції. Наприклад, ви можете стерти певні частини оригінального зображення, а потім використовувати техніку, відому як "впрацювання", щоб AI замінила стерту частину зображення на все, що завгодно. Це легко Створіть зображення на власному ПК за допомогою програмного забезпечення, як стабільна дифузія .
Якщо ви хотіли зробити так, як хтось тримав справжній пістолет замість іграшки, це тривіально для AI. Хочете створити скандальну фотографію знаменитості? Генерація зображень AI (і Deepfakes для цього питання) можна зловживати саме таким чином. Ви навіть можете генерувати Фотореалістичні обличчя людей, яких не існує .
AI -генерація відео
Генерація зображень AI та Deepfakes - це лише початок. Мета (материнська компанія Facebook) вже продемонструвала AI -генерація відео і хоча лише кілька секунд кадрів можна створити з часом, ми очікуємо, що тривалість відео та кількість користувачів контролю над тим, що у відео буде розширюватися експоненціально.
Наразі цілком можливо, щоб просто створити AI зернистий кліп Bigfoot або Nessie, не потрапляючи в костюм чи полетів до Шотландії з камерою та невеликою дерев’яною моделлю. Відео завжди було легко маніпулювати до того, як стало можливе покоління AI відео. Однак тепер ви не можете довіряти будь -якому відео, яке ви бачите взагалі.
AI Чат боти
Коли ви стрибаєте на чат із підтримкою клієнтів, ви розмовляєте з машиною, а не з людиною. Технологія AI (і традиційні методи програмування) достатньо хороша, щоб машини проводили з нами складні розмови, особливо якщо це у вузькій області, наприклад, отримання гарантії або у вас є технічне питання про щось.
Розпізнавання голосу та синтез також знаходяться в розширеному стані, і якщо ви дивитесь Демоси для таких систем, як дуплекс Google , ви отримуєте справжнє відчуття, куди ми йдемо з цим. Після того, як ви розкриєте ботів, що працюють на AI, на платформи соціальних медіа, потенціал для узгоджених дезінформаційних кампаній з наслідками реального світу стає високим.
Справедливо кажучи, платформи соціальних медіа, такі як Twitter, завжди мали проблеми з ботом, але в цілому ці боти були непосильними. Зараз можливо, що ви можете створити складену людину в соціальних мережах, яка обдурить будь-кого. Вони навіть могли використовувати інші технології в цьому списку для створення зображень, аудіо та відео, щоб «довести», що вони справжні.
AI письменники
Ми їдемо в Інтернет для отримання інформації, щоб дізнатися про світ та дізнатися, що відбувається по всьому світу. Людські письменники (це ми!) - ключове джерело цієї інформації, але письменники AI стають досить хорошими, щоб викласти подібну якісну роботу.
Як і у художників AI, існує дискусія щодо того, чи замінить таке програмне забезпечення людей, які пишуть на життя, але знову є кут дезінформації, який значною мірою ігнорується.
Якщо ви зможете створити оригінальне обличчя, створити бот-персони соціальних медіа, створити відео та голос із складеною людиною, стає можливим створити цілу публікацію протягом ночі. Сумнівні веб -сайти "новин" вже є джерелом переконливої дезінформації для багатьох користувачів Інтернету, але такі технології AI, як ця, може переповнити цю проблему.
Проблема виявлення
Ці технології є не лише проблемою, оскільки вони відкривають нові шляхи зловживання, вони також є проблемою, оскільки виявлення фальшивої може бути важкою. Deppakes вже досягає того моменту, коли навіть експертам важко розповідати, що таке підробка, а що ні. Ось чому вони борються з вогнем з вогнем і використовують Технологія AI для виявлення створених або маніпульованих зображень , шукаючи знаки креслення, невидимі для людського ока.
Це буде працювати деякий час, але це також може створити ненавмисну гонку AI Arms, яка може іронічно підштовхувати технології, які створюють підроблений вміст до більш високих рівнів вірності. Єдина розумна стратегія для нас як людей - це припустити, що все, що ми бачимо в Інтернеті, якщо це не з перевіреного джерела з прозорими процесами та політикою, слід розглядати як фальшиву до доведеного іншого. (Хоча ми сумніваємось, що ваш теоретик змови дядько повірить, що відео НЛО, які він продовжує надсилати вас, не справжні.)
- › Наступний ваш розумний домашній пристрій може мати 5G
- › Microsoft Edge отримує чат AI та новий вигляд на Windows
- › OnePlus 11 тут, але з грубим стартом
- › Wyze вниз, це не тільки ти
- › Перестаньте використовувати клавіатуру та мишу, які поставляються разом із вашим ПК
- › Bose kindcomfort Earbuds 2 Огляд: крок вперед для аудіо, що скасує шум