Audio Deepfakes: Kann jemand sagen, ob sie gefälscht sind?

Aug 3, 2025
Privatsphäre und Sicherheit
UNCACHED INHALT
LuckyStep / Shutterstock

Video-Deepfakes bedeuten, dass Sie nicht alles vertrauen können, was Sie sehen. Jetzt können Audio-Deepfakes bedeuten, dass Sie Ihren Ohren nicht mehr vertrauen können. War das wirklich der Präsident, der Kanada den Krieg erklärte? Ist das wirklich dein Vater am Telefon, der nach seinem E-Mail-Passwort fragt?

Fügen Sie der Liste eine weitere existenzielle Sorge hinzu, wie unsere eigene Hybris uns unweigerlich zerstören könnte. Während der Reagan-Ära waren die einzigen wirklichen technologischen Risiken die Bedrohung durch nukleare, chemische und biologische Kriegsführung.

In den folgenden Jahren hatten wir die Gelegenheit, von Nanotechs grauer Gänsehaut und globalen Pandemien besessen zu sein. Jetzt haben wir tiefe Fälschungen - Menschen, die die Kontrolle über ihre Ähnlichkeit oder Stimme verlieren.

Was ist ein Audio Deepfake?

Die meisten von uns haben a gesehen Video Deepfake , in denen Deep-Learning-Algorithmen verwendet werden, um eine Person durch die Ähnlichkeit einer anderen Person zu ersetzen. Die besten sind nervenaufreibend realistisch, und jetzt ist Audio an der Reihe. Eine Audio-Deepfake liegt vor, wenn eine „geklonte“ Stimme, die möglicherweise nicht von der realen Person zu unterscheiden ist, zur Erzeugung von synthetischem Audio verwendet wird.

"Es ist wie Photoshop für Sprache", sagte Zohaib Ahmed, CEO von KI ähneln über die Voice-Cloning-Technologie seines Unternehmens.

Schlechte Photoshop-Jobs können jedoch leicht entlarvt werden. Eine Sicherheitsfirma, mit der wir gesprochen haben, sagte, dass die Leute normalerweise nur raten, ob eine Audio-Deepfake mit einer Genauigkeit von etwa 57 Prozent echt oder falsch ist - nicht besser als ein Münzwurf.

Da so viele Sprachaufnahmen von Telefonanrufen mit geringer Qualität (oder an lauten Orten) aufgezeichnet werden, können Audio-Deepfakes noch ununterscheidbarer gemacht werden. Je schlechter die Klangqualität ist, desto schwieriger ist es, diese verräterischen Anzeichen dafür zu erkennen, dass eine Stimme nicht echt ist.

Aber warum sollte jemand ein Photoshop für Stimmen brauchen?

Der überzeugende Fall für synthetisches Audio

Es besteht tatsächlich eine enorme Nachfrage nach synthetischem Audio. Laut Ahmed ist „der ROI sehr unmittelbar“.

Dies gilt insbesondere für Spiele. In der Vergangenheit war Sprache die einzige Komponente in einem Spiel, die bei Bedarf nicht erstellt werden konnte. Selbst in interaktiven Titeln mit Szenen in Kinoqualität, die in Echtzeit gerendert werden, sind verbale Interaktionen mit nicht spielenden Charakteren immer im Wesentlichen statisch.

Jetzt hat die Technologie jedoch aufgeholt. Studios haben das Potenzial, die Stimme eines Schauspielers zu klonen und Text-to-Speech-Engines zu verwenden, damit Charaktere in Echtzeit alles sagen können.

Es gibt auch traditionellere Anwendungen in der Werbung sowie im technischen und Kundensupport. Hier ist eine Stimme wichtig, die authentisch menschlich klingt und ohne menschliche Eingaben persönlich und kontextuell reagiert.

Voice-Cloning-Unternehmen sind auch von medizinischen Anwendungen begeistert. Natürlich ist das Ersetzen von Stimmen in der Medizin nichts Neues - Stephen Hawking verwendete bekanntermaßen eine synthetisierte Roboterstimme, nachdem er 1985 seine eigene verloren hatte. Das moderne Klonen von Stimmen verspricht jedoch etwas noch Besseres.

Im Jahr 2008 synthetische Sprachfirma, CereProc gab der verstorbene Filmkritiker Roger Ebert seine Stimme zurück, nachdem Krebs sie weggenommen hatte. CereProc hatte eine Webseite veröffentlicht, auf der Menschen Nachrichten eingeben konnten, die dann mit der Stimme des ehemaligen Präsidenten George Bush gesprochen wurden.

"Ebert sah das und dachte:" Nun, wenn sie Bushs Stimme kopieren könnten, könnten sie meine kopieren können ", sagte Matthew Aylett, Chief Scientific Officer von CereProc. Ebert bat das Unternehmen dann, eine Ersatzstimme zu erstellen, indem sie eine große Bibliothek von Sprachaufzeichnungen verarbeiteten.

"Es war eines der ersten Male, dass jemand das getan hat, und es war ein echter Erfolg", sagte Aylett.

In den letzten Jahren haben eine Reihe von Unternehmen (einschließlich CereProc) mit dem ALS Association auf Projektabrechnung synthetische Stimmen für diejenigen bereitzustellen, die an ALS leiden.

The ALS Association

Wie synthetisches Audio funktioniert

Das Klonen von Stimmen hat gerade einen Moment Zeit und eine Reihe von Unternehmen entwickeln Tools. KI ähneln und Beschreibung Online-Demos haben, die jeder kostenlos ausprobieren kann. Sie zeichnen nur die Phrasen auf, die auf dem Bildschirm angezeigt werden, und in wenigen Minuten wird ein Modell Ihrer Stimme erstellt.

Sie können AI danken - speziell Deep-Learning-Algorithmen - um aufgezeichnete Sprache mit Text abgleichen zu können, um die Komponentenphoneme zu verstehen, aus denen Ihre Stimme besteht. Anschließend werden die resultierenden sprachlichen Bausteine ​​verwendet, um Wörter zu approximieren, die Sie nicht gesprochen haben.

Die Basistechnologie gibt es schon eine Weile, aber wie Aylett betonte, brauchte sie Hilfe.

"Das Kopieren der Stimme war ein bisschen wie das Backen von Gebäck", sagte er. "Es war ziemlich schwierig und es gab verschiedene Möglichkeiten, es von Hand zu optimieren, damit es funktioniert."

Entwickler benötigten enorme Mengen aufgezeichneter Sprachdaten, um passable Ergebnisse zu erzielen. Dann, vor einigen Jahren, öffneten sich die Schleusen. Die Forschung auf dem Gebiet der Bildverarbeitung erwies sich als kritisch. Wissenschaftler entwickelten generative kontradiktorische Netzwerke (GANs), die zum ersten Mal auf der Grundlage vorhandener Daten extrapolieren und Vorhersagen treffen konnten.

"Anstatt dass ein Computer ein Bild eines Pferdes sieht und sagt:" Dies ist ein Pferd ", könnte mein Modell jetzt ein Pferd in ein Zebra verwandeln", sagte Aylett. "Die Explosion in der Sprachsynthese ist jetzt der akademischen Arbeit von Computer Vision zu verdanken."

Eine der größten Neuerungen beim Klonen von Stimmen war die allgemeine Reduzierung des Rohdatenbedarfs für die Erstellung einer Stimme. In der Vergangenheit benötigten Systeme Dutzende oder sogar Hunderte von Stunden Audio. Jetzt können jedoch kompetente Stimmen aus nur wenigen Minuten Inhalt generiert werden.

VERBUNDEN: Das Problem mit der KI: Maschinen lernen Dinge, können sie aber nicht verstehen

Die existenzielle Angst, nichts zu vertrauen

Diese Technologie ist zusammen mit Kernkraft, Nanotechnologie, 3D-Druck und CRISPR gleichzeitig aufregend und erschreckend. Immerhin gab es bereits Fälle in den Nachrichten, in denen Menschen von Sprachklonen betrogen wurden. Im Jahr 2019 behauptete ein Unternehmen in Großbritannien, dies sei der Fall durch eine Audio-Deepfake ausgetrickst Telefonanruf zur Verdrahtung von Geld an Kriminelle.

Sie müssen auch nicht weit gehen, um überraschend überzeugende Audio-Fälschungen zu finden. Youtube Kanal Stimmsynthese bietet bekannte Leute, die Dinge sagen, die sie nie gesagt haben, wie George W. Bush liest "In Da Club" um 50 Cent . Es ist genau richtig.

An anderer Stelle auf YouTube können Sie eine Herde ehemaliger Präsidenten hören, darunter Obama, Clinton und Reagan rappen NWA . Die Musik und die Hintergrundgeräusche helfen dabei, einige der offensichtlichen Roboterstörungen zu verschleiern, aber selbst in diesem unvollkommenen Zustand ist das Potenzial offensichtlich.

Wir haben mit den Werkzeugen experimentiert KI ähneln und Beschreibung und Sprachklon erstellt. Descript verwendet eine Voice-Cloning-Engine, die ursprünglich Lyrebird hieß und besonders beeindruckend war. Wir waren schockiert über die Qualität. Wenn Sie hören, wie Ihre eigene Stimme Dinge sagt, von denen Sie wissen, dass Sie sie noch nie gesagt haben, ist dies beunruhigend.

Die Rede hat definitiv eine Roboterqualität, aber bei einem gelegentlichen Hören hätten die meisten Menschen keinen Grund zu der Annahme, dass es sich um eine Fälschung handelt.

Wir hatten noch größere Hoffnungen auf Resemble AI. Es bietet Ihnen die Werkzeuge, um eine Konversation mit mehreren Stimmen zu erstellen und die Ausdruckskraft, Emotion und Geschwindigkeit des Dialogs zu variieren. Wir haben jedoch nicht gedacht, dass das Sprachmodell die wesentlichen Eigenschaften der von uns verwendeten Stimme erfasst. In der Tat war es unwahrscheinlich, jemanden zu täuschen.

Ein Mitarbeiter von Resemble AI sagte uns: "Die meisten Menschen sind von den Ergebnissen überwältigt, wenn sie es richtig machen." Wir haben zweimal ein Sprachmodell mit ähnlichen Ergebnissen erstellt. Offensichtlich ist es nicht immer einfach, einen Sprachklon zu erstellen, mit dem Sie einen digitalen Überfall auslösen können.

Trotzdem hat Kundan Kumar, der Gründer von Lyrebird (der jetzt Teil von Descript ist), das Gefühl, dass wir diese Schwelle bereits überschritten haben.

"Für einen kleinen Prozentsatz der Fälle ist es bereits da", sagte Kumar. "Wenn ich synthetisches Audio verwende, um ein paar Wörter in einer Rede zu ändern, ist es bereits so gut, dass es Ihnen schwer fällt, zu wissen, was sich geändert hat."

Wir können auch davon ausgehen, dass diese Technologie erst mit der Zeit besser wird. Systeme benötigen weniger Audio, um ein Modell zu erstellen, und schnellere Prozessoren können das Modell in Echtzeit erstellen. Eine intelligentere KI wird lernen, wie man eine überzeugendere menschenähnliche Trittfrequenz und Betonung der Sprache hinzufügt, ohne ein Beispiel zu haben, an dem man arbeiten kann.

Dies bedeutet, dass wir uns möglicherweise der weit verbreiteten Verfügbarkeit des mühelosen Klonens von Stimmen nähern.

Die Ethik der Büchse von Pandora

Die meisten Unternehmen, die in diesem Bereich arbeiten, scheinen bereit zu sein, mit der Technologie sicher und verantwortungsbewusst umzugehen. Ähnliche KI hat zum Beispiel einen ganzen Abschnitt "Ethik" auf seiner Website und der folgende Auszug ist ermutigend:

"Wir arbeiten mit Unternehmen in einem strengen Prozess zusammen, um sicherzustellen, dass die Stimme, die sie klonen, von ihnen verwendet werden kann, und um die richtigen Einwilligungen für Sprecher zu erhalten."

Ebenso sagte Kumar, Lyrebird sei von Anfang an besorgt über Missbrauch. Aus diesem Grund können Benutzer als Teil von Descript nur noch ihre eigene Stimme klonen. Tatsächlich erfordern sowohl Resemble als auch Descript, dass Personen ihre Samples live aufzeichnen, um ein nicht einvernehmliches Klonen von Stimmen zu verhindern.

Es ist ermutigend, dass die großen kommerziellen Akteure einige ethische Richtlinien auferlegt haben. Es ist jedoch wichtig, sich daran zu erinnern, dass diese Unternehmen keine Gatekeeper dieser Technologie sind. Es gibt bereits eine Reihe von Open-Source-Tools, für die es keine Regeln gibt. Laut Henry Ajder, Leiter der Abteilung für Bedrohungsinformationen bei Deeptrace Außerdem benötigen Sie keine fortgeschrittenen Codierungskenntnisse, um es zu missbrauchen.

"Ein Großteil der Fortschritte in diesem Bereich ist auf die Zusammenarbeit an Orten wie GitHub zurückzuführen, bei der Open-Source-Implementierungen zuvor veröffentlichter akademischer Arbeiten verwendet wurden", sagte Ajder. "Es kann von jedem verwendet werden, der über mäßige Codierungskenntnisse verfügt."

Sicherheitsprofis haben das alles schon einmal gesehen

Kriminelle haben versucht, Geld per Telefon zu stehlen, lange bevor das Klonen von Stimmen möglich war, und Sicherheitsexperten waren immer auf Abruf, um es zu erkennen und zu verhindern. Sicherheitsfirma Stecknadel fallen versucht, Bankbetrug zu stoppen, indem überprüft wird, ob ein Anrufer derjenige ist, von dem er behauptet, er sei aus dem Audio. Allein im Jahr 2019 soll Pindrop 1,2 Milliarden Sprachinteraktionen analysiert und Betrugsversuche in Höhe von rund 470 Millionen US-Dollar verhindert haben.

Vor dem Klonen von Stimmen versuchten Betrüger eine Reihe anderer Techniken. Am einfachsten war es, von woanders mit persönlichen Informationen über die Marke anzurufen.

"Mit unserer akustischen Signatur können wir feststellen, dass ein Anruf aufgrund der Klangeigenschaften tatsächlich von einem Skype-Telefon in Nigeria kommt", sagte Vijay Balasubramaniyan, CEO von Pindrop. "Dann können wir vergleichen, dass der Kunde in Atlanta ein AT & T-Telefon verwendet."

Einige Kriminelle haben auch Karriere gemacht, indem sie Hintergrundgeräusche verwendet haben, um Bankvertreter abzuwerfen.

"Es gibt einen Betrüger, den wir Chicken Man genannt haben und der immer Hähne im Hintergrund hatte", sagte Balasubramaniyan. "Und es gibt eine Frau, die ein Baby benutzt hat, das im Hintergrund weint, um die Call-Center-Agenten im Wesentlichen davon zu überzeugen, dass" Hey, ich mache eine schwere Zeit durch ", um Sympathie zu bekommen."

Und dann gibt es die männlichen Kriminellen, die sich um die Bankkonten von Frauen kümmern.

"Sie verwenden Technologie, um die Frequenz ihrer Stimme zu erhöhen und weiblicher zu klingen", erklärte Balasubramaniyan. Diese können erfolgreich sein, aber "gelegentlich bringt die Software Probleme und sie klingen wie Alvin und die Chipmunks."

Natürlich ist das Klonen von Stimmen nur die neueste Entwicklung in diesem immer eskalierenden Krieg. Sicherheitsfirmen haben bereits bei mindestens einem Speerfischangriff Betrüger mit synthetischem Audio gefasst.

"Mit dem richtigen Ziel kann die Auszahlung massiv sein", sagte Balasubramaniyan. "Es ist also sinnvoll, die Zeit darauf zu verwenden, eine synthetisierte Stimme des richtigen Individuums zu erstellen."

Kann jemand sagen, ob eine Stimme gefälscht ist?

Sergey Nivens/Shutterstock

Wenn es darum geht zu erkennen, ob eine Stimme gefälscht wurde, gibt es sowohl gute als auch schlechte Nachrichten. Das Schlimme ist, dass Sprachklone von Tag zu Tag besser werden. Deep-Learning-Systeme werden intelligenter und erzeugen authentischere Stimmen, für deren Erstellung weniger Audio erforderlich ist.

Wie Sie diesem Clip entnehmen können Präsident Obama fordert MC Ren auf, Stellung zu beziehen Wir sind auch bereits an einem Punkt angelangt, an dem ein sorgfältig konstruiertes High-Fidelity-Sprachmodell für das menschliche Ohr ziemlich überzeugend klingen kann.

Je länger ein Soundclip ist, desto wahrscheinlicher ist es, dass Sie feststellen, dass etwas nicht stimmt. Bei kürzeren Clips bemerken Sie möglicherweise nicht, dass es synthetisch ist - insbesondere, wenn Sie keinen Grund haben, seine Legitimität in Frage zu stellen.

Je klarer die Klangqualität ist, desto leichter ist es, Anzeichen einer Audio-Deepfake zu erkennen. Wenn jemand direkt in ein Mikrofon in Studioqualität spricht, können Sie genau hinhören. Eine Aufzeichnung von Telefonanrufen von schlechter Qualität oder ein Gespräch, das auf einem Handheld-Gerät in einem lauten Parkhaus aufgezeichnet wurde, ist jedoch viel schwieriger zu bewerten.

Die gute Nachricht ist, dass Computer nicht die gleichen Einschränkungen haben, auch wenn Menschen Probleme haben, echte von gefälschten zu trennen. Glücklicherweise gibt es bereits Tools zur Sprachüberprüfung. Pindrop hat eines, bei dem Deep-Learning-Systeme gegeneinander antreten. Es verwendet beide, um herauszufinden, ob ein Audio-Sample die Person ist, die es sein soll. Es wird jedoch auch untersucht, ob ein Mensch überhaupt alle Geräusche im Sample erzeugen kann.

Abhängig von der Audioqualität enthält jede Sekunde der Sprache zwischen 8.000 und 50.000 Datenproben, die analysiert werden können.

"Die Dinge, nach denen wir normalerweise suchen, sind Sprachbeschränkungen aufgrund der menschlichen Evolution", erklärte Balasubramaniyan.

Zum Beispiel haben zwei Vokaltöne eine minimal mögliche Trennung voneinander. Dies liegt daran, dass es physisch nicht möglich ist, sie schneller zu sagen, da sich die Muskeln in Ihrem Mund und die Stimmbänder selbst neu konfigurieren können.

"Wenn wir uns synthetisiertes Audio ansehen", sagte Balasubramaniyan, "sehen wir manchmal Dinge und sagen:" Dies hätte niemals von einem Menschen erzeugt werden können, weil die einzige Person, die dies hätte erzeugen können, einen sieben Fuß langen Hals haben muss. " ”

Es gibt auch eine Klangklasse namens "Frikative". Sie entstehen, wenn Luft durch eine enge Verengung in Ihrem Hals strömt, wenn Sie Buchstaben wie f, s, v und z aussprechen. Frikative sind für Deep-Learning-Systeme besonders schwer zu beherrschen, da die Software Probleme hat, sie von Rauschen zu unterscheiden.

Zumindest für den Moment stolpert die Software zum Klonen von Stimmen über die Tatsache, dass Menschen Fleischsäcke sind, die Luft durch Löcher in ihrem Körper strömen lassen, um zu sprechen.

"Ich scherze immer wieder, dass Deepfakes sehr weinerlich sind", sagte Balasubramaniyan. Er erklärte, dass es für Algorithmen sehr schwierig ist, die Enden von Wörtern von Hintergrundgeräuschen in einer Aufnahme zu unterscheiden. Dies führt zu vielen Sprachmodellen mit Sprache, die stärker nachlässt als Menschen.

"Wenn ein Algorithmus sieht, dass dies häufig passiert", sagte Balasubramaniyan, "wird es statistisch gesehen sicherer, dass Audio im Gegensatz zu menschlichem erzeugt wird."

Resemble AI löst das Erkennungsproblem auch direkt mit dem Resemblyzer, einem Open-Source-Deep-Learning-Tool verfügbar auf GitHub . Es kann gefälschte Stimmen erkennen und die Sprecher überprüfen.

Es braucht Wachsamkeit

Es ist immer schwer zu erraten, wie die Zukunft aussehen könnte, aber diese Technologie wird mit ziemlicher Sicherheit nur besser. Außerdem könnte jeder potenziell ein Opfer sein - nicht nur hochkarätige Personen wie gewählte Beamte oder Bankchefs.

"Ich denke, wir stehen kurz vor der ersten Audio-Verletzung, bei der die Stimmen der Leute gestohlen werden", sagte Balasubramaniyan voraus.

Im Moment ist das reale Risiko von Audio-Deepfakes jedoch gering. Es gibt bereits Tools, mit denen sich synthetische Videos recht gut erkennen lassen.

Außerdem sind die meisten Menschen keinem Angriffsrisiko ausgesetzt. Laut Ajder arbeiten die wichtigsten kommerziellen Akteure "an maßgeschneiderten Lösungen für bestimmte Kunden und die meisten haben ziemlich gute ethische Richtlinien, mit wem sie zusammenarbeiten würden und mit wem nicht."

Die wirkliche Bedrohung liegt jedoch vor uns, als Ajder weiter erklärte:

"Pandoras Box wird Menschen sein, die Open-Source-Implementierungen der Technologie zu immer benutzerfreundlicheren, zugänglicheren Apps oder Diensten zusammenschustern, die nicht über die ethische Kontrollebene verfügen, die kommerzielle Lösungen derzeit bieten."

Dies ist wahrscheinlich unvermeidlich, aber Sicherheitsunternehmen haben bereits gefälschte Audioerkennung in ihre Toolkits integriert. Trotzdem erfordert Wachsamkeit Wachsamkeit.

"Wir haben dies in anderen Sicherheitsbereichen getan", sagte Ajder. "Viele Unternehmen verbringen viel Zeit damit, zu verstehen, was beispielsweise die nächste Zero-Day-Sicherheitsanfälligkeit ist. Synthetisches Audio ist einfach die nächste Grenze. “

VERBUNDEN: Was ist eine Deepfake und sollte ich besorgt sein?

.eintragsinhalt .Eintrittsfußzeile

Audio Deepfakes: Can Anyone Tell If They’re Fake?

What Are Deepfakes?

Deepfakes: What Happens When You Can’t Trust Your Own Eyes? | NBCLX

Deepfakes, Part I Of IV: What Are Deepfakes?

Deepfakes: Can You Spot A Phony Video? | Above The Noise

Did You Know About Deepfakes And Shallow Fakes?

It’s Getting Harder To Spot A Deep Fake Video

Introduction To Deepfakes


Privatsphäre und Sicherheit - Die beliebtesten Artikel

So verwenden Sie LastPass für mehr als nur das Verwalten von Passwörtern

Privatsphäre und Sicherheit Nov 5, 2024

LastPass ist mehr als nur ein Passwortmanager . Es ist ein verschlüsselt Tresor, in dem Sie sichere Notizen, geheime Lesezeichen und sogar..


So füllen Sie Ihre Kreditkartennummer automatisch aus (sicher)

Privatsphäre und Sicherheit Nov 14, 2024

Online-Shopping ist großartig, aber das Eingeben Ihrer Kreditkartennummer auf jeder neuen Website kann schnell ärgerlich werden. So überspringen Sie die Eingabe und überprüfen ..


So erstellen Sie ein Microsoft-Konto

Privatsphäre und Sicherheit Aug 1, 2025

Für die meisten Dinge, die Sie im Microsoft-Ökosystem tun, ist ein Microsoft-Konto erforderlich - Anmelden bei den verschiedenen Diensten und Apps und sogar bei Windows selbst. So..


So löschen Sie den Terminalverlauf unter Linux oder macOS

Privatsphäre und Sicherheit Nov 7, 2024

UNCACHED INHALT Klicken Sie in der Mac- oder Linux-Befehlszeile auf den Aufwärtspfeil, um den zuletzt ausgeführten Befehl anzuzeigen. Drücken Sie weiter auf "Nach oben", um wei..


So mounten Sie Ihr Windows 10 (oder 8) -Systemlaufwerk unter Linux

Privatsphäre und Sicherheit Jul 10, 2025

UNCACHED INHALT Wenn du bist dual-booting Linux Wenn Sie neben Windows 10, 8 oder 8.1 Ihre Windows-Systempartition bereitstellen und auf deren Dateien zugreifen mö..


So verschlüsseln Sie Ihr DNS für sichereres Surfen

Privatsphäre und Sicherheit Dec 10, 2024

UNCACHED INHALT Wir haben das angepriesen Vorteile von DNS-Servern von Drittanbietern Seit einiger Zeit, aber ein zusätzlicher Vorteil, der von Interesse sein kön..


So entfernen Sie Werbung mit Pixelserv auf DD-WRT

Privatsphäre und Sicherheit Mar 8, 2025

UNCACHED INHALT Es gibt zahlreiche Möglichkeiten, Werbung in Ihrem Browser zu blockieren. Was wäre, wenn Sie sie auf dem Router blockieren könnten? Hier erfahren Sie, ..


Starten Sie eine Ubuntu Gnome-Anwendung als Root

Privatsphäre und Sicherheit Nov 25, 2024

UNCACHED INHALT Ubuntu Linux führt den Desktop als reguläres Benutzerkonto aus, sodass alle gestarteten Programme im Kontext eines normalen Benutzerkontos gestartet werden. Um ei..


Kategorien