Het internet is altijd gevuld met verkeerde informatie, maar het was tenminste niet moeilijk om feiten van fictie met een beetje moeite te scheiden. De opkomst van verfijnde kunstmatige intelligentietools heeft dit voor altijd veranderd, waardoor scepsis belangrijker is dan ooit.
Diepte
Het woord " diepe vage ”Bevat een hele familie technologieën die allemaal het gebruik van de dieplerende neurale netwerken delen om hun individuele doelen te bereiken. Deepfakes werden publieke aandacht bij het vervangen van iemands gezicht in een video werd eenvoudig. Dus iemand zou een acteursgezicht kunnen vervangen door dat van de Amerikaanse president of alleen de mond van de president vervangen en hen dingen laten zeggen die nooit zijn gebeurd.
Een tijdlang zou een mens zich moeten voordoen als de stem, maar Deepfake -technologie kan ook stemmen repliceren. Deepfake-technologie kan nu in realtime worden gebruikt, wat de mogelijkheid opent dat een hacker of andere slechte trouwacteur iemand zou kunnen voordoen in een realtime videogesprek of uitzending. Elk Video "bewijsmateriaal" die u op internet ziet, moet worden behandeld als een potentiële diepvoeding totdat deze is geverifieerd.
AI -beeldgeneratie
AI -beeldgenerators hebben een Roer de kunstenaarsgemeenschap erin Voor alle implicaties die het heeft voor degenen die de kost verdienen als kunstenaar en of commerciële artiesten het gevaar lopen te worden vervangen. Wat niet zo veel debat veroorzaakt, is het potentieel voor verkeerde informatie dankzij deze technologie.
AI-beeld-generatie-systemen kunnen fotorealistische afbeeldingen produceren met behulp van tekstgebaseerde prompts, voorbeeldafbeeldingen en originele afbeeldingen voor manipulatie. U kunt bijvoorbeeld bepaalde delen van een originele afbeelding wissen en vervolgens een techniek gebruiken die bekend staat als "infijn" om de AI het gewist deel van de afbeelding te laten vervangen door alles wat u wilt. Het is gemakkelijk Genereer afbeeldingen op uw eigen pc met software zoals stabiele diffusie .
Als je het wilde laten lijken alsof iemand een echt pistool vasthield in plaats van een speelgoed, is dat triviaal voor AI. Wil je een schandalige foto van een beroemdheid maken? AI -beeldgeneratie (en deepfakes trouwens) kunnen op deze manier worden misbruikt. Je kunt zelfs genereren Fotorealistische gezichten van mensen die niet bestaan .
AI Video Generation
AI -afbeeldingsgeneratie en Deepfakes zijn nog maar het begin. Meta (het moederbedrijf van Facebook) heeft al aangetoond AI Video Generation , en hoewel slechts enkele seconden beelden in de loop van de tijd kunnen worden gegenereerd, verwachten we dat de lengte van de video en de hoeveelheid controle die gebruikers zullen hebben over wat er in de video zit, zal exponentieel worden uitgebreid.
Voor nu is het heel goed mogelijk om gewoon een AI te laten genereren een korrelige clip van Bigfoot of Nessie zonder dat iemand met een camera en een klein houten model naar Schotland vliegt of naar Schotland vliegt. Video is altijd gemakkelijk te manipuleren geweest voordat de AI -videopeld mogelijk was. Nu kunt u echter helemaal geen video vertrouwen die u ziet.
AI -chatbots
Wanneer u op een praatje met klantenondersteuning springt, praat u met een machine in plaats van een mens. AI -technologie (en traditionele programmeermethoden) zijn goed genoeg voor machines om geavanceerde gesprekken met ons te voeren, vooral als het zich in een smal domein bevindt, zoals het krijgen van een garantievervanging of als u een technische vraag over iets hebt.
Spraakherkenning en synthese zijn ook in een geavanceerde staat, en als je kijkt Demo's voor systemen zoals Google Duplex , je krijgt een echt idee van waar we hiermee naartoe gaan. Zodra u AI-aangedreven bots op sociale mediaplatforms ontketent, wordt het potentieel voor gecoördineerde verkeerde informatiecampagnes met reële gevolgen hoog.
Om eerlijk te zijn, hebben sociale mediaplatforms zoals Twitter altijd een BOT -probleem gehad, maar in het algemeen waren deze bots niet -geavanceerd. Het is nu denkbaar dat je een verzonnen persoon op sociale media zou kunnen maken die zowat iedereen voor de gek houdt. Ze kunnen zelfs andere technologieën in deze lijst gebruiken om afbeeldingen, audio en video te maken om te 'bewijzen' dat ze echt zijn.
AI -schrijvers
We gaan naar internet voor informatie om meer te weten te komen over de wereld en om te leren wat er over de hele wereld gebeurt. Menselijke schrijvers (dat zijn wij!) Zijn een belangrijke bron van die informatie, maar AI -schrijvers worden goed genoeg om van soortgelijke kwaliteitswerk uit te brengen.
Net als bij AI -artiesten is er een debat over de vraag of dergelijke software mensen zal vervangen die voor de kost schrijven, maar nogmaals, er is een verkeerde informatie -invalshoek die grotendeels wordt genegeerd.
Als je een origineel gezicht kunt maken, een Social Media Persona Bot kunt maken, video en stem met je verzonnen persoon kunt maken, wordt het mogelijk om 's nachts een hele publicatie op te roepen. Dubieuze "nieuws" -websites zijn al een bron van overtuigende verkeerde informatie voor veel internetgebruikers, maar AI -technologie zoals deze kan dit probleem overbruggen.
Het probleem van detectie
Deze technologieën zijn niet alleen een probleem omdat ze nieuwe wegen openen voor misbruik, ze zijn ook een probleem omdat het detecteren van de nep moeilijk kan zijn. Deepfakes bereiken al het punt waarop zelfs experts het moeilijk vinden om te vertellen wat nep is en wat niet. Daarom vechten ze met vuur met vuur en gebruiken ze AI -technologie om gegenereerde of gemanipuleerde beelden te detecteren , door te zoeken naar veelbetekenende tekenen onzichtbaar voor het menselijk oog.
Dit zal een tijdje werken, maar het kan ook een onbedoelde AI -wapenwedloop creëren die ironisch genoeg technologieën zou kunnen pushen die nepgehalte creëren naar hogere niveaus van trouw. De enige gezonde strategie voor ons als mensen is om aan te nemen dat alles wat we op internet zien, tenzij het uit een geverifieerde bron met transparante processen en beleid is, als nep moet worden behandeld totdat het anders is bewezen. (Hoewel we twijfelen aan uw complottheoreticus oom zal geloven dat de UFO -video's die hij blijft sturen, niet echt zijn.)
- › Uw volgende smart home -apparaat heeft mogelijk 5G
- › Microsoft Edge krijgt een AI -chat en een nieuwe look op Windows
- › De OnePlus 11 is hier, maar met een ruwe start
- › Wyze is down, het bent niet alleen jij
- › Stop met het gebruik van het toetsenbord en de muis die bij uw pc is geleverd
- › Bose QuietComfort Earbuds 2 Review: een stap voorwaarts voor audio van ruisonderdrukking