Âm thanh sâu sắc: Bất cứ ai có thể biết nếu họ là giả?

Aug 3, 2025
Quyền riêng tư và Bảo mật
NỘI DUNG KHÔNG ĐƯỢC CHỨNG MINH
LuckyStep / Shutterstock

Video sâu sắc có nghĩa là bạn không thể tin tưởng mọi thứ bạn thấy. Bây giờ, âm thanh sâu sắc có thể có nghĩa là bạn không còn tin tưởng vào đôi tai của mình nữa. Đó có thực sự là tổng thống tuyên chiến với Canada? Đó có thực sự là bố của bạn đang gọi điện yêu cầu mật khẩu email của ông ấy không?

Thêm một nỗi lo hiện sinh khác vào danh sách về việc sự kiêu ngạo của chính chúng ta chắc chắn có thể hủy hoại chúng ta như thế nào. Trong thời đại Reagan, những rủi ro công nghệ thực sự duy nhất là mối đe dọa từ chiến tranh hạt nhân, hóa học và sinh học.

Trong những năm tiếp theo, chúng tôi đã có cơ hội ám ảnh về chất xám của công nghệ nano và các đại dịch toàn cầu. Giờ đây, chúng ta có những câu chuyện sâu sắc — mọi người mất kiểm soát về vẻ ngoài hoặc giọng nói của họ.

Deepfake âm thanh là gì?

Hầu hết chúng ta đã thấy một video deepfake , trong đó các thuật toán học sâu được sử dụng để thay thế một người bằng hình ảnh của người khác. Điều tốt nhất là chân thực đến kinh ngạc và bây giờ đến lượt âm thanh. Âm thanh sâu lắng là khi một giọng nói “nhân bản” có khả năng không thể phân biệt được với giọng người thật được sử dụng để tạo ra âm thanh tổng hợp.

"Nó giống như Photoshop cho giọng nói", Zohaib Ahmed, Giám đốc điều hành của Resemble AI , về công nghệ nhân bản giọng nói của công ty anh ấy.

Tuy nhiên, các công việc Photoshop tồi rất dễ bị loại bỏ. Một công ty bảo mật mà chúng tôi đã nói chuyện cho biết mọi người thường chỉ đoán xem một bản deepfake âm thanh là thật hay giả với độ chính xác khoảng 57% — không tốt hơn việc lật đồng xu.

Ngoài ra, vì có rất nhiều bản ghi âm giọng nói của các cuộc gọi điện thoại chất lượng thấp (hoặc được ghi ở những vị trí ồn ào), nên thậm chí khó phân biệt được âm thanh sâu hơn. Chất lượng âm thanh càng kém thì càng khó nhận ra những dấu hiệu nhận biết đó là giọng nói không có thật.

Nhưng tại sao mọi người lại cần Photoshop cho giọng nói?

Trường hợp hấp dẫn cho âm thanh tổng hợp

Thực tế có một nhu cầu rất lớn về âm thanh tổng hợp. Theo Ahmed, “ROI rất tức thời.”

Điều này đặc biệt đúng khi nói đến chơi game. Trước đây, lời nói là một thành phần trong trò chơi không thể tạo ra theo yêu cầu. Ngay cả trong các tiêu đề tương tác với các cảnh chất lượng như rạp chiếu phim được hiển thị trong thời gian thực, các tương tác bằng lời nói với các nhân vật không diễn về cơ bản luôn ở trạng thái tĩnh.

Tuy nhiên, bây giờ, công nghệ đã bắt kịp. Các hãng phim có tiềm năng sao chép giọng nói của diễn viên và sử dụng công cụ chuyển văn bản thành giọng nói để các nhân vật có thể nói bất cứ điều gì trong thời gian thực.

Ngoài ra còn có nhiều cách sử dụng truyền thống hơn trong quảng cáo, công nghệ và hỗ trợ khách hàng. Ở đây, một giọng nói có vẻ chân thực của con người và phản hồi cá nhân cũng như theo ngữ cảnh mà không cần sự nhập của con người là điều quan trọng.

Các công ty nhân bản giọng nói cũng hào hứng với các ứng dụng y tế. Tất nhiên, thay thế giọng nói không có gì mới trong y học — Stephen Hawking nổi tiếng đã sử dụng giọng nói tổng hợp bằng robot sau khi mất giọng nói của chính mình vào năm 1985. Tuy nhiên, nhân bản giọng nói hiện đại hứa hẹn điều gì đó tốt hơn.

Năm 2008, công ty tổng hợp giọng nói, CereProc , đưa cho nhà phê bình phim quá cố, Roger Ebert, giọng nói của ông trở lại sau khi căn bệnh ung thư lấy đi. CereProc đã xuất bản một trang web cho phép mọi người nhập các tin nhắn mà sau đó sẽ được nói bằng giọng của cựu Tổng thống George Bush.

Matthew Aylett, giám đốc khoa học của CereProc cho biết: “Ebert đã nhìn thấy điều đó và nghĩ rằng,“ nếu họ có thể sao chép giọng nói của Bush, thì họ sẽ có thể sao chép giọng nói của tôi ”. Ebert sau đó yêu cầu công ty tạo ra một giọng nói thay thế, họ đã thực hiện bằng cách xử lý một thư viện lớn các bản ghi âm giọng nói.

Aylett nói: “Đó là một trong những lần đầu tiên có người làm điều đó và đó là một thành công thực sự.

Trong những năm gần đây, một số công ty (bao gồm cả CereProc) đã làm việc với Hiệp hội ALS trên Hóa đơn dự án để cung cấp tiếng nói tổng hợp cho những người bị ALS.

Hiệp hội ALS

Cách hoạt động của âm thanh tổng hợp

Nhân bản giọng nói đang diễn ra ngay lúc này và hàng loạt công ty đang phát triển các công cụ. Resemble AI Mô tả có các bản trình diễn trực tuyến mà bất kỳ ai cũng có thể thử miễn phí. Bạn chỉ cần ghi lại các cụm từ xuất hiện trên màn hình và chỉ trong vài phút, một mẫu giọng nói của bạn sẽ được tạo.

Bạn có thể cảm ơn AI — cụ thể là, thuật toán học sâu —Để có thể khớp lời nói đã ghi với văn bản để hiểu các âm vị thành phần tạo nên giọng nói của bạn. Sau đó, nó sử dụng các khối xây dựng ngôn ngữ có được để xác định những từ mà nó chưa nghe thấy bạn nói.

Công nghệ cơ bản đã xuất hiện được một thời gian, nhưng như Aylett đã chỉ ra, nó cần một số trợ giúp.

“Sao chép giọng nói hơi giống như làm bánh ngọt,” anh nói. “Nó khá khó làm và có nhiều cách bạn phải chỉnh sửa bằng tay để nó hoạt động.”

Các nhà phát triển cần một lượng lớn dữ liệu giọng nói được ghi lại để có được kết quả khả thi. Sau đó, một vài năm trước, lũ lụt mở ra. Nghiên cứu trong lĩnh vực thị giác máy tính được chứng minh là rất quan trọng. Các nhà khoa học đã phát triển các mạng đối nghịch chung (GAN), lần đầu tiên có thể ngoại suy và đưa ra dự đoán dựa trên dữ liệu hiện có.

Aylett nói: “Thay vì máy tính nhìn thấy hình ảnh một con ngựa và nói‘ đây là một con ngựa ’, mô hình của tôi có thể biến một con ngựa thành một con ngựa vằn. "Vì vậy, sự bùng nổ trong tổng hợp giọng nói hiện nay là nhờ vào công việc học thuật từ thị giác máy tính."

Một trong những cải tiến lớn nhất trong nhân bản giọng nói là giảm tổng thể lượng dữ liệu thô cần thiết để tạo ra giọng nói. Trước đây, hệ thống cần hàng chục, thậm chí hàng trăm giờ âm thanh. Tuy nhiên, giờ đây, những tiếng nói có thẩm quyền có thể được tạo ra chỉ từ vài phút nội dung.

LIÊN QUAN: Vấn đề với AI: Máy móc đang học hỏi mọi thứ, nhưng không thể hiểu chúng

Nỗi sợ hãi hiện hữu về việc không tin tưởng bất cứ điều gì

Công nghệ này cùng với năng lượng hạt nhân, công nghệ nano, in 3D và CRISPR, đồng thời gây kinh ngạc và đáng sợ. Rốt cuộc, đã có trường hợp tin tức về mọi người bị lừa bởi các bản sao giọng nói. Vào năm 2019, một công ty ở Vương quốc Anh tuyên bố rằng họ đã bị lừa bởi một âm thanh sâu gọi điện thoại vào dây dẫn tiền cho tội phạm.

Bạn cũng không cần phải đi đâu xa để tìm ra những âm thanh giả tạo đáng ngạc nhiên. Kênh Youtube Tổng hợp giọng hát có những người nổi tiếng nói những điều họ chưa bao giờ nói, như George W. Bush đọc “In Da Club” của 50 Cent . Đó là ngay tại chỗ.

Ở những nơi khác trên YouTube, bạn có thể nghe thấy một loạt các cựu Tổng thống, bao gồm Obama, Clinton và Reagan, đọc rap NWA . Âm nhạc và âm thanh nền giúp che giấu một số lỗi rõ ràng của robot, nhưng ngay cả trong trạng thái không hoàn hảo này, tiềm năng là rõ ràng.

Chúng tôi đã thử nghiệm với các công cụ trên Resemble AI Mô tả và tạo bản sao giọng nói. Descript sử dụng công cụ nhân bản giọng nói ban đầu được gọi là Lyrebird và đặc biệt ấn tượng. Chúng tôi đã bị sốc về chất lượng. Nghe giọng nói của chính bạn nói những điều bạn biết là bạn chưa bao giờ nói thật đáng kinh ngạc.

Bài phát biểu chắc chắn có chất lượng robot, nhưng khi nghe bình thường, hầu hết mọi người sẽ không có lý do gì để nghĩ rằng đó là giả.

Chúng tôi thậm chí còn có hy vọng cao hơn đối với Resemble AI. Nó cung cấp cho bạn các công cụ để tạo một cuộc trò chuyện với nhiều giọng nói và thay đổi biểu cảm, cảm xúc và nhịp độ của cuộc đối thoại. Tuy nhiên, chúng tôi không nghĩ rằng mẫu giọng nói nắm bắt được những phẩm chất thiết yếu của giọng nói mà chúng tôi sử dụng. Trong thực tế, nó không có khả năng lừa bất kỳ ai.

Một đại diện của Resemble AI đã nói với chúng tôi rằng “hầu hết mọi người đều bị đánh gục bởi kết quả nếu họ làm đúng”. Chúng tôi đã xây dựng mô hình giọng nói hai lần với kết quả tương tự. Vì vậy, hiển nhiên, không phải lúc nào cũng dễ dàng tạo ra một bản sao giọng nói mà bạn có thể sử dụng để ngăn chặn một vụ trộm kỹ thuật số.

Mặc dù vậy, người sáng lập Lyrebird (hiện là một phần của Descript), Kundan Kumar, cảm thấy rằng chúng ta đã vượt qua ngưỡng đó.

"Đối với một tỷ lệ nhỏ các trường hợp, nó đã ở đó," Kumar nói. “Nếu tôi sử dụng âm thanh tổng hợp để thay đổi một vài từ trong bài phát biểu, thì điều đó đã tốt đến mức bạn sẽ rất khó để biết điều gì đã thay đổi”.

Chúng ta cũng có thể cho rằng công nghệ này sẽ chỉ trở nên tốt hơn theo thời gian. Các hệ thống sẽ cần ít âm thanh hơn để tạo mô hình và các bộ xử lý nhanh hơn sẽ có thể tạo mô hình trong thời gian thực. AI thông minh hơn sẽ học cách thêm nhịp điệu giống con người thuyết phục hơn và nhấn mạnh vào lời nói mà không cần lấy ví dụ để làm việc.

Điều đó có nghĩa là chúng ta có thể đang tiến gần hơn đến sự phổ biến rộng rãi của nhân bản giọng nói dễ dàng.

Đạo đức của chiếc hộp Pandora

Hầu hết các công ty làm việc trong lĩnh vực này dường như sẵn sàng xử lý công nghệ một cách an toàn, có trách nhiệm. Ví dụ: AI tương tự, có toàn bộ phần "Đạo đức" trên trang web của nó và đoạn trích sau đây rất đáng khích lệ:

“Chúng tôi làm việc với các công ty thông qua một quy trình nghiêm ngặt để đảm bảo rằng giọng nói mà họ đang nhân bản có thể được sử dụng bởi họ và có sự đồng ý thích hợp với các diễn viên lồng tiếng.”

Tương tự như vậy, Kumar cho biết Lyrebird đã lo ngại về việc sử dụng sai mục đích ngay từ đầu. Đó là lý do tại sao bây giờ, là một phần của Mô tả, nó chỉ cho phép mọi người sao chép giọng nói của chính họ. Trên thực tế, cả Resemble và Descript đều yêu cầu mọi người ghi âm trực tiếp các mẫu của họ để ngăn chặn việc sao chép giọng nói vô cớ.

Thật vui khi các công ty thương mại lớn đã áp đặt một số nguyên tắc đạo đức. Tuy nhiên, điều quan trọng cần nhớ là các công ty này không phải là người bảo vệ công nghệ này. Có một số công cụ mã nguồn mở đã tồn tại trong tự nhiên, không có quy tắc nào. Theo Henry Ajder, trưởng bộ phận tình báo về mối đe dọa tại Deeptrace , bạn cũng không cần kiến ​​thức mã hóa nâng cao để sử dụng sai.

Ajder cho biết: “Rất nhiều tiến bộ trong lĩnh vực này đã đạt được nhờ sự hợp tác làm việc ở những nơi như GitHub, sử dụng các triển khai mã nguồn mở của các bài báo học thuật đã xuất bản trước đây. “Nó có thể được sử dụng bởi bất kỳ ai có trình độ viết mã trung bình.”

Chuyên gia bảo mật đã thấy tất cả điều này trước đây

Tội phạm đã cố gắng ăn cắp tiền qua điện thoại từ rất lâu trước khi có thể nhân bản giọng nói, và các chuyên gia bảo mật đã luôn túc trực để phát hiện và ngăn chặn điều đó. Công ty bảo mật Pindrop cố gắng ngăn chặn hành vi gian lận của ngân hàng bằng cách xác minh xem người gọi có phải là người mà họ tuyên bố là từ âm thanh hay không. Chỉ trong năm 2019, Pindrop tuyên bố đã phân tích 1,2 tỷ tương tác bằng giọng nói và ngăn chặn khoảng 470 triệu đô la các nỗ lực gian lận.

Trước khi nhân bản giọng nói, những kẻ lừa đảo đã thử một số kỹ thuật khác. Đơn giản nhất là chỉ cần gọi từ nơi khác với thông tin cá nhân về nhãn hiệu.

“Chữ ký âm thanh của chúng tôi cho phép chúng tôi xác định rằng một cuộc gọi thực sự đến từ điện thoại Skype ở Nigeria vì đặc điểm âm thanh,” Giám đốc điều hành Pindrop, Vijay Balasubramaniyan cho biết. “Sau đó, chúng tôi có thể so sánh rằng khi biết khách hàng sử dụng điện thoại AT&T ở Atlanta.”

Một số tội phạm cũng đã tạo ra sự nghiệp bằng cách sử dụng âm thanh nền để loại bỏ các đại diện ngân hàng.

Balasubramaniyan cho biết: “Có một kẻ gian lận mà chúng tôi gọi là Chicken Man luôn có những chú gà trống ở phía sau. “Và có một phụ nữ đã sử dụng tiếng khóc của trẻ sơ sinh để thuyết phục các nhân viên tổng đài rằng‘ này, tôi đang trải qua một thời gian khó khăn ’để nhận được sự thông cảm.”

Và sau đó là những tên tội phạm nam truy lùng tài khoản ngân hàng của phụ nữ.

Balasubramaniyan giải thích: “Họ sử dụng công nghệ để tăng tần số giọng nói của mình, nghe có vẻ nữ tính hơn. Những điều này có thể thành công, nhưng "đôi khi, phần mềm bị rối và chúng nghe giống như Alvin và Chipmunks."

Tất nhiên, nhân bản giọng nói chỉ là bước phát triển mới nhất trong cuộc chiến ngày càng leo thang này. Các công ty bảo mật đã bắt được những kẻ gian lận sử dụng âm thanh tổng hợp trong ít nhất một cuộc tấn công chủ lực.

“Với mục tiêu phù hợp, khoản thanh toán có thể rất lớn,” Balasubramaniyan nói. “Vì vậy, thật hợp lý khi dành thời gian để tạo ra tiếng nói tổng hợp của một cá nhân phù hợp.”

Bất cứ ai có thể biết nếu một giọng nói là giả?

Sergey Nivens / Shutterstock

Khi nói đến việc nhận biết giọng nói có bị giả mạo hay không, có cả tin tốt và tin xấu. Điều tồi tệ là việc nhái giọng mỗi ngày một tốt hơn. Hệ thống học sâu ngày càng thông minh hơn và tạo ra những giọng nói chân thực hơn mà cần ít âm thanh hơn để tạo ra.

Như bạn có thể thấy từ clip này về Tổng thống Obama yêu cầu MC Ren đứng lên , chúng tôi cũng đã đạt đến mức độ trung thực cao, mẫu giọng nói được xây dựng cẩn thận có thể nghe khá thuyết phục đối với tai người.

Đoạn âm thanh càng dài, bạn càng có nhiều khả năng nhận thấy có điều gì đó không ổn. Tuy nhiên, đối với các clip ngắn hơn, bạn có thể không nhận thấy đó là clip tổng hợp — đặc biệt nếu bạn không có lý do gì để nghi ngờ tính hợp pháp của nó.

Chất lượng âm thanh càng rõ ràng thì càng dễ nhận thấy các dấu hiệu của âm thanh sâu. Nếu ai đó đang nói trực tiếp vào micrô chất lượng phòng thu, bạn sẽ có thể lắng nghe kỹ. Nhưng một đoạn ghi âm cuộc gọi điện thoại kém chất lượng hoặc một cuộc trò chuyện được ghi lại trên thiết bị cầm tay trong một nhà để xe ồn ào sẽ khó đánh giá hơn nhiều.

Tin tốt là, ngay cả khi con người gặp khó khăn trong việc phân biệt thật và giả, máy tính không có những hạn chế giống nhau. May mắn thay, các công cụ xác minh bằng giọng nói đã tồn tại. Pindrop có một hệ thống đào sâu chống lại nhau. Nó sử dụng cả hai để khám phá xem mẫu âm thanh có phải là mẫu âm thanh mà nó được cho là giống hay không. Tuy nhiên, nó cũng kiểm tra xem một người có thể tạo ra tất cả các âm thanh trong mẫu hay không.

Tùy thuộc vào chất lượng của âm thanh, mỗi giây của bài phát biểu chứa từ 8.000-50.000 mẫu dữ liệu có thể được phân tích.

Balasubramaniyan giải thích: “Những thứ mà chúng tôi thường tìm kiếm là hạn chế về lời nói do quá trình tiến hóa của con người.

Ví dụ, hai âm thanh có thể có khoảng cách tối thiểu với nhau. Điều này là do không thể nói chúng nhanh hơn về mặt vật lý do tốc độ mà các cơ trong miệng và dây thanh quản của bạn có thể tự cấu hình lại.

“Khi chúng tôi xem xét âm thanh tổng hợp,” Balasubramaniyan nói, “đôi khi chúng tôi nhìn thấy mọi thứ và nói,“ điều này có thể không bao giờ được tạo ra bởi con người bởi vì người duy nhất có thể tạo ra âm thanh này cần phải có cổ dài 7 mét. ”

Ngoài ra còn có một loại âm thanh được gọi là "ma sát". Chúng được hình thành khi không khí đi qua một chỗ thắt hẹp trong cổ họng của bạn khi bạn phát âm các chữ cái như f, s, v và z. Các hệ thống học tập sâu đặc biệt khó làm chủ được vì phần mềm gặp khó khăn trong việc phân biệt chúng với tiếng ồn.

Vì vậy, ít nhất là hiện tại, phần mềm nhân bản giọng nói đang vấp phải thực tế rằng con người là những túi thịt đưa không khí qua các lỗ trên cơ thể để nói chuyện.

Balasubramaniyan nói: “Tôi tiếp tục nói đùa rằng bánh sâu rất trắng. Ông giải thích rằng các thuật toán rất khó phân biệt phần cuối của các từ với tiếng ồn xung quanh trong bản ghi âm. Điều này dẫn đến nhiều mẫu giọng nói có giọng nói trôi chảy hơn con người.

“Khi một thuật toán thấy điều này xảy ra nhiều,” Balasubramaniyan nói, “về mặt thống kê, nó trở nên tự tin hơn đó là âm thanh được tạo ra chứ không phải do con người tạo ra”.

AI tương tự cũng đang giải quyết vấn đề phát hiện trực tiếp với Resemblyzer, một công cụ học sâu mã nguồn mở có sẵn trên GitHub . Nó có thể phát hiện giọng nói giả và thực hiện xác minh người nói.

Cần cảnh giác

Luôn khó đoán được tương lai sẽ ra sao, nhưng công nghệ này gần như chắc chắn sẽ ngày càng tốt hơn. Ngoài ra, bất kỳ ai cũng có thể trở thành nạn nhân — không chỉ những cá nhân nổi tiếng, như các quan chức được bầu hoặc CEO ngân hàng.

“Tôi nghĩ rằng chúng ta đang trên bờ vực của vụ vi phạm âm thanh đầu tiên mà giọng nói của mọi người bị đánh cắp,” Balasubramaniyan dự đoán.

Tuy nhiên, tại thời điểm hiện tại, rủi ro trong thế giới thực từ các lỗi sâu âm thanh là thấp. Đã có những công cụ dường như thực hiện khá tốt công việc phát hiện video tổng hợp.

Thêm vào đó, hầu hết mọi người không có nguy cơ bị tấn công. Theo Ajder, các công ty thương mại chính “đang làm việc trên các giải pháp đặt trước cho các khách hàng cụ thể và hầu hết đều có các nguyên tắc đạo đức khá tốt về những người họ sẽ và sẽ không làm việc cùng.”

Tuy nhiên, mối đe dọa thực sự nằm ở phía trước, như Ajder tiếp tục giải thích:

“Pandora’s Box sẽ là những người cùng nhau triển khai mã nguồn mở của công nghệ thành các ứng dụng hoặc dịch vụ ngày càng thân thiện với người dùng, dễ tiếp cận và không có lớp giám sát đạo đức như các giải pháp thương mại hiện nay”.

Điều này có lẽ là không thể tránh khỏi, nhưng các công ty bảo mật đã đưa tính năng phát hiện âm thanh giả vào bộ công cụ của họ. Tuy nhiên, giữ an toàn đòi hỏi sự cảnh giác.

Ajder nói: “Chúng tôi đã làm điều này trong các lĩnh vực an ninh khác. “Ví dụ: rất nhiều tổ chức dành nhiều thời gian để tìm hiểu lỗ hổng zero-day tiếp theo là gì. Âm thanh tổng hợp chỉ đơn giản là biên giới tiếp theo. ”

LIÊN QUAN: Deepfake là gì, và tôi có nên lo lắng?

Audio Deepfakes: Can Anyone Tell If They’re Fake?

What Are Deepfakes?

Deepfakes: What Happens When You Can’t Trust Your Own Eyes? | NBCLX

Deepfakes, Part I Of IV: What Are Deepfakes?

Deepfakes: Can You Spot A Phony Video? | Above The Noise

Did You Know About Deepfakes And Shallow Fakes?

It’s Getting Harder To Spot A Deep Fake Video

Introduction To Deepfakes


Quyền riêng tư và Bảo mật - Các bài báo phổ biến nhất

Cách hạn chế thông báo trên Nest Cam của bạn bằng các vùng hoạt động

Quyền riêng tư và Bảo mật Jul 23, 2025

Có khả năng bạn nhận được rất nhiều cảnh báo chuyển động tích cực giả không liên quan từ Nest Cam —Một chiếc ô tô chạy ngan..


Cách hủy kết bạn với ai đó trên Facebook

Quyền riêng tư và Bảo mật Jul 12, 2025

NỘI DUNG KHÔNG ĐƯỢC CHỨNG MINH Rất dễ khiến Bảng tin trên Facebook của bạn trở nên lộn xộn. Sau một vài năm, có thêm những ảo thuật gia ch..


Cách xóa tài khoản Yahoo Mail của bạn

Quyền riêng tư và Bảo mật Nov 16, 2024

Với Yahoo đau khổ vi phạm dữ liệu lớn và bán chính nó cho Verizon , bạn có thể muốn xóa tài khoản Yahoo cũ đó. Nếu b�..


So sánh trình quản lý mật khẩu: LastPass vs KeePass vs Dashlane vs 1Password

Quyền riêng tư và Bảo mật Jul 10, 2025

Có hàng tá trình quản lý mật khẩu trên mạng, nhưng không có hai trình quản lý mật khẩu nào được tạo giống nhau. Chúng tôi đã tổng hợp các ..


Cách quản lý, tùy chỉnh và chặn thông báo trong Android Lollipop và Marshmallow

Quyền riêng tư và Bảo mật Sep 29, 2025

Android luôn thực hiện tốt các thông báo một cách nhất quán qua các lần lặp lại khác nhau. Trong Android Lollipop và Marshmallow, thông báo thậm chí c�..


Tại sao Google nói Mozilla Thunderbird kém an toàn hơn?

Quyền riêng tư và Bảo mật Jan 3, 2025

Đôi khi khi bạn đang tìm kiếm câu trả lời cho một điều, cuối cùng bạn lại tìm thấy một thứ khác khá ngạc nhiên. Điển hình là tuyên bố c�..


Cách chia sẻ tệp giữa các tài khoản người dùng trên Windows, Linux hoặc OS X

Quyền riêng tư và Bảo mật May 25, 2025

NỘI DUNG KHÔNG ĐƯỢC CHỨNG MINH Hệ điều hành của bạn cung cấp cho mỗi tài khoản người dùng các thư mục riêng khi bạn thiết lập một số ..


Cách loại bỏ phần mềm diệt vi rút nâng cao và phần mềm độc hại chống vi rút giả mạo / giả mạo khác

Quyền riêng tư và Bảo mật Sep 18, 2025

NỘI DUNG KHÔNG ĐƯỢC CHỨNG MINH Nếu bạn có một PC bị nhiễm Advanced Virus Remover, có thể bạn sẽ thấy rằng đây là một phần mềm khó loại bỏ. Rất..


Thể loại