tin tưc hăng ngay
vị trí của bạn:Nơi tập hợp tin tức > Tin tức > Lừa đảo công nghệ giả sâu gia tăng, luật pháp của EU về AI có hiệu lực vào tháng 8

Lừa đảo công nghệ giả sâu gia tăng, luật pháp của EU về AI có hiệu lực vào tháng 8

thời gian:2024-08-26 22:54:33 Nhấp chuột:152 hạng hai
{1[The Epoch Times, ngày 03 tháng 8 năm 2024] (Báo cáo toàn diện của phóng viên Wu Ruichang của Ban Chủ đề Đặc biệt của Epoch Times) Luật Trí tuệ nhân tạo do Liên minh Châu Âu xây dựng đã chính thức có hiệu lực vào tháng 8 và sẽ được thực thi đầy đủ vào năm 2026. Trong những năm gần đây, công nghệ giả mạo sâu và tổng hợp giọng nói liên quan đến AI đã được sử dụng trong các vụ lừa đảo AI đã bùng nổ, khiến nhiều nạn nhân trên khắp thế giới bị phá sản.

Luật nêu trên là luật quy mô lớn đầu tiên trên thế giới liên quan đến AI. Mục đích của nó là giải quyết các tác động tiêu cực của AI, xây dựng khung pháp lý toàn diện và tiêu chuẩn hóa việc phát triển, sử dụng và ứng dụng AI của các doanh nghiệp. .

Luật pháp áp dụng hệ thống rủi ro bốn cấp độ cho các AI khác nhau. Các ứng dụng AI trong cơ sở hạ tầng quan trọng, giáo dục hoặc đào tạo nghề và chăm sóc y tế đều được coi là “rủi ro cao”. Những ứng dụng AI có rủi ro cao này yêu cầu phải tuân thủ nghiêm ngặt các nghĩa vụ quan trọng như giám sát, bảo mật, tính ổn định và độ chính xác.

Ngoài ra, luật yêu cầu các nhà phát triển AI có "rủi ro hạn chế" phải có nghĩa vụ công khai, minh bạch, đồng thời cho người dùng biết họ đang nói chuyện với AI hay người thật. Khi thông báo cho công chúng về các vấn đề được công chúng quan tâm, cần phải cho biết liệu AI có được sử dụng hay không. Quy tắc này cũng áp dụng cho "nội dung tổng hợp giọng nói và công nghệ giả mạo sâu".

Mặc dù luật pháp không có yêu cầu nghiêm ngặt như vậy đối với hai ứng dụng AI có mức độ rủi ro thấp còn lại, nhưng những AI này cũng chịu sự giám sát của cơ quan quản lý thị trường và các nhà sản xuất phải tự giám sát các chương trình AI và thiết lập hệ thống giám sát. xảy ra sự cố nghiêm trọng hoặc Hư hỏng cần phải “báo cáo” với cơ quan chức năng.

Các công ty vi phạm luật này có thể bị phạt từ 7,5 triệu euro (khoảng 9,6 triệu đô la Mỹ) đến 35 triệu euro (khoảng 37,8 triệu đô la Mỹ) hoặc 1,5% đến 7% doanh thu hàng năm trên toàn cầu (tùy theo mức nào cao hơn) ).

Các trường hợp gian lận liên quan đến AI thường xuyên

Có thể nói Luật Trí tuệ nhân tạo của Liên minh Châu Âu được sử dụng để giải quyết các vấn đề như lừa đảo, tin tặc và thông tin sai lệch phát sinh từ sự cải thiện đáng kể về hiệu suất của AI. Ngoài ra, các vụ án tội phạm liên quan đến AI trong thế giới thực cũng ngày càng gia tăng.

Gã khổng lồ thanh toán thẻ tín dụng Visa tiết lộ vào cuối tháng 7 rằng ngày càng có nhiều người vô đạo đức đang sử dụng sức mạnh của AI để tạo số thẻ chính (16 chữ số hoặc 19 chữ số) trên thẻ tín dụng và sử dụng sức mạnh tính toán của nó tiến hành kiểm tra nhanh và liên tục cho đến khi crack được số thẻ chính, mã bảo mật (CVV) mặt sau thẻ, ngày hết hạn và phản hồi phê duyệt.

Họ cũng nhắc nhở rằng nhiều vụ lừa đảo tình yêu, lừa đảo đầu tư, lừa đảo giết lợn và các vụ lừa đảo khác hiện đang sử dụng AI để thực hiện hành vi lừa đảo. Ngoài ra, Visa đã gửi một báo cáo về mối đe dọa vào tháng 3 năm nay và đề cập rằng từ tháng 10 năm 2022 đến tháng 9 năm 2023, công ty đã chặn tổng cộng 40 tỷ USD các hoạt động gian lận. Dữ liệu này gần như hai lần một năm trước.

NỔ HŨ

Vụ lừa đảo Internet liên quan đến AI nổi tiếng hiện nay không ai khác chính là cô kế toán Helen Young (phiên âm) ở London, Anh, người đã bị cảnh sát giả Trung Quốc lừa đảo 29.000 bảng Anh (khoảng 37.000 USD) và bị bọn côn đồ này lợi dụng nỗi sợ hãi của người Hoa ở nước ngoài đối với ĐCSTQ và những hình ảnh AI cực kỳ lừa đảo đã đạt được mục đích của họ.

Helen tiết lộ với giới truyền thông vào đầu tháng 7 rằng một cảnh sát giả lần đầu tiên gọi điện video cho cô và sử dụng công nghệ AI để cho cô xem đồng phục cảnh sát thực tế, thẻ cảnh sát và cảnh sát đầy đủ chức năng. Sau đó, anh ta cáo buộc Helen có liên quan. trong một âm mưu lừa đảo tài chính quy mô lớn.

NỔ HŨ

Viên cảnh sát giả cũng yêu cầu cô chấp nhận điều tra, tải xuống chương trình giám sát và ký thỏa thuận bảo mật, đồng thời cảnh báo cô không được tiết lộ cuộc điều tra với thế giới bên ngoài, nếu không tính mạng của cô sẽ gặp nguy hiểm. Ngay sau đó, Helen nhận được đoạn video ghi lại cảnh “nghi phạm” ra đầu thú với cảnh sát và cáo buộc cô là “chủ mưu” toàn bộ vụ lừa đảo tài chính.

Video này khiến cô sợ hãi nên đã trả cho viên cảnh sát giả số tiền bảo lãnh 29.000 bảng Anh để tránh bị dẫn độ về Trung Quốc vì Helen tin rằng cô sẽ chết nếu quay trở lại Trung Quốc.

Vài ngày sau, cảnh sát giả mạo đòi cô số tiền chuộc 250.000 bảng Anh (khoảng 320.000 đô la Mỹ), nhưng lần này Helen quyết định nói với con gái về sự việc, và con gái cô nói với cô rằng đó là một vụ lừa đảo và đã cùng cô đi trình báo vụ việc và đến cơ quan công an trình báo, may mắn cuối cùng họ đã lấy lại được tiền.

Nhưng những người khác lại không may mắn như cô ấy. Theo báo cáo về tội phạm mạng do FBI công bố trong hai năm liên tiếp, vào năm 2023, tần suất và tác động tài chính của tội phạm mạng thực hiện hành vi lừa đảo qua mạng sẽ tăng trưởng kỷ lục.

Trung tâm Khiếu nại Tội phạm Internet của FBI (IC3) đã nhận được 880.000 khiếu nại từ công chúng. Họ ước tính thiệt hại có thể vượt quá 12,5 tỷ USD. So với năm 2022, số lượng khiếu nại đã tăng gần 10% và thiệt hại đã tăng 22%. .

FBI cũng đề cập trong báo cáo rằng gian lận đầu tư gây ra thiệt hại hình sự cao nhất. Những tội phạm này sẽ sử dụng thông tin sai lệch để xúi giục các nhà đầu tư thực hiện đầu tư sai lầm. Thiệt hại do gian lận đầu tư đã tăng lên 4,57 tỷ USD vào năm 2023, tăng 38% so với năm 2022, với loại lừa đảo phổ biến nhất là lừa đảo lừa đảo.

Công nghệ giả mạo sâu và công nghệ đánh cắp giọng nói đã trở thành vũ khí tội phạm

Ngoài những trò lừa đảo được FBI đề cập, còn có những tội phạm sử dụng công nghệ AI deepfake và phương pháp đánh cắp giọng nói để làm giả video của người nổi tiếng nhằm mục đích quảng cáo sai sự thật hoặc thực hiện cuộc gọi video giả để tống tiền. đang thách thức nhận thức của chúng ta về thực tế.

Công ty công nghệ an ninh mạng Romania Bitdefender đã công bố một báo cáo vào đầu tháng 7 năm nay về việc bọn tội phạm sử dụng công nghệ giả sâu trong AI để thực hiện "quảng cáo thuốc giả" và tiết lộ cách bọn tội phạm sử dụng AI để biến những trò lừa đảo khá phổ biến thành Take it to the cấp độ tiếp theo.

Báo cáo đề cập rằng bọn côn đồ đã sử dụng nội dung giả mạo sâu để tạo ra sự xác nhận sai lệch về các bác sĩ, người dẫn chương trình truyền hình và chuyên gia chăm sóc sức khỏe nổi tiếng về những “phương pháp chữa bệnh thần kỳ” không tồn tại và lan truyền những video lừa đảo này lên các mạng xã hội như Facebook và Instagram Group. nền tảng truyền thông.

Các nhân vật và giọng nói trong những quảng cáo giả này rất sống động và thậm chí có thể tạo ra những biểu cảm tinh tế như chớp mắt và mỉm cười. Nhiều bệnh nhân mắc bệnh ung thư, bệnh mãn tính và thậm chí cả bệnh nan y tin rằng chúng là thật và mua những loại thuốc này. khiến họ trì hoãn bệnh tật, thậm chí nguy hiểm đến tính mạng. Ngoài ra, nếu ai đó nhấp vào các liên kết mua hàng có chứa tài sản lừa đảo này, dữ liệu của họ sẽ bị đánh cắp hoặc thông tin của họ sẽ bị xóa.

Báo cáo cũng đề cập rằng bọn tội phạm cũng sẽ sử dụng các tài khoản mạng xã hội do chúng kiểm soát để tiến hành nhiều hoạt động quảng cáo hơn, khiến số nạn nhân tiếp tục gia tăng.

Tạp chí y khoa nổi tiếng của Anh "BMJ" đã công bố một báo cáo cảnh báo về "công nghệ giả sâu" vào giữa tháng 7. Nó cũng đề cập rằng một số người vô đạo đức sử dụng hàng giả sâu để phát tán một số quảng cáo thuốc sai sự thật trên mạng xã hội, v.v. deepfakes” đang gia tăng, vì nghiên cứu cho thấy gần một nửa số người thực sự không thể phân biệt được đâu là hàng thật và hàng giả.

Ngoài ra, công ty kỹ thuật Arup của Anh đã xác nhận với giới truyền thông vào tháng 5 rằng một nhân viên của công ty họ đã gửi 25,6 triệu USD cho bọn tội phạm vào tháng 2 để thực hiện một cuộc gọi video deepfake.

Paul Fabara, giám đốc rủi ro và dịch vụ khách hàng của Visa, cho biết trong báo cáo mối đe dọa nửa năm một lần của công ty vào tháng 3: “Với việc sử dụng AI tổng hợp và các công nghệ mới nổi khác, những trò lừa đảo này ngày càng nghiêm trọng hơn bao giờ hết. và mang đến những thiệt hại chưa từng có cho người tiêu dùng.”

以Open AI开发的大型语言模型GPT-3为例,该模型具有1,750亿个参数。为用于训练,研究人员连续运行1,024个GPU(图形处理单元)约一个月的时间。

欧盟委员会在周一的一份声明中说,初步认为,“这种二元选择迫使用户同意(使用)他们的个人数据,并且未能为他们提供个性化程度较低但等价的Meta社交网络版本。”

升空约17分钟后,火箭成功将重达3吨的“大地4号”(Daichi 4)投入太阳同步轨道,宣告发射成功。

蟹状星云是第一个被确定为超新星爆炸形成的天体,它以蟹状外表而闻名。自被发现以来,它一直是人们研究最多的天体之一。今天,人们观测到的蟹状星云已经光芒不再,而是微弱超新星残骸。

“我们的一位同事突然对我们说,‘嘿,那边是什么?它看起来像一艘宇宙飞船。”匿名吹哨人在报告中写道,“我们都转头朝他指的方向看去,果然,在红石以北大约半英里到一英里的地方盘旋着一个UFO。”

根据NASA的新合同,伊隆‧马斯克(Elon Musk)的SpaceX公司将为NASA建造名为“美国脱轨飞行器”(U.S. Deorbit Vehicle)的运载火箭,推动太空站从轨道重返大气层,并避免对人口稠密地区造成风险。NASA将负责脱轨操作。

Okta, một công ty quản lý quyền truy cập và danh tính của Mỹ, đã cảnh báo vào tháng 1 năm 2024 rằng tội phạm mạng có thể sao chép giọng nói của người dùng trong vòng ba giây bằng cách sử dụng AI và sử dụng những giọng nói này để lừa gạt người khác, khiến họ nghĩ rằng giọng nói đó là thật.

Kỹ sư máy tính người Nhật Kiyohara Jin nói với The Epoch Times vào ngày 1 tháng 8: “Mặc dù AI đã mang lại nhiều lợi ích cho nhân loại nhưng các tội phạm liên quan cũng gia tăng hàng năm và có xu hướng vượt quá tầm kiểm soát. Những vấn đề này đều do con người gây ra. Nguyên nhân là do con người không giữ được đạo đức của chính mình. Chỉ bằng cách nâng cao đạo đức của bản thân thì vấn đề cơ bản mới có thể được giải quyết.”

Kỹ sư điện tử Nhật Bản Satoru Ogino cũng có quan điểm tương tự. Ông nói với The Epoch Times: “Chìa khóa của mọi vấn đề hiện nay nằm ở tấm lòng của con người. Ngoài ra, những kẻ xấu này lợi dụng lòng tin của người dân bình thường đối với người thân hoặc người nổi tiếng của họ để thực hiện các hoạt động lừa đảo, điều này sẽ gây tổn hại nghiêm trọng đến niềm tin giữa con người với nhau. biến sự khác biệt giữa mọi người trở nên lớn hơn.”

Chuyên gia dạy bạn cách đối phó với tin giả AI

Hiện tại, có thể nói, hành vi gian lận AI khó phân biệt đúng sai đang ngày càng tràn lan. Ngoài việc cảnh giác hơn và tiến hành xác minh đa bên, con người còn có thể làm gì khác? Dưới đây là một số lời khuyên phòng ngừa từ các chuyên gia và chính phủ.

Cục Bảo vệ Người tiêu dùng và Người lao động (DCWP) của chính phủ Hoa Kỳ hướng dẫn công chúng cách xác định các trò lừa đảo liên quan đến AI: Tìm kiếm sự rung chuyển bất thường hoặc chuyển động không thực tế trong video hoặc cuộc gọi điện video và quan sát những thay đổi về ánh sáng hoặc màu da, nhấp nháy ( ký tự có thể không nhấp nháy) và bóng xung quanh mắt.

Ngoài ra, bạn cũng có thể nghe xem có sự mâu thuẫn giữa giọng nói và hình ảnh hay liệu người nói có làm điều gì đó không đúng tư cách hay không, chẳng hạn như yêu cầu tiền hoặc thông tin cá nhân của bạn. Bởi vì những video AI-deepfake này đôi khi có những lựa chọn từ ngữ lạ lùng, ngôn ngữ thô tục và câu văn khó hiểu.

Theo phương tiện truyền thông xã hội Virginia theroanokestar.com, Julia Ferrar, thủ thư và nhà giáo dục kiến ​​thức kỹ thuật số tại Virginia Tech (VT), cho biết: “Nhận biết thông tin sai lệch (dù có do trí tuệ nhân tạo tạo ra hay không) Một trong những cách hiệu quả nhất là kiểm tra nguồn của nó và xem các phương tiện tin tức hợp pháp. Nếu bạn không chắc chắn về nguồn, bạn có thể xác minh tin tức thông qua nhiều tìm kiếm."

Cô ấy nói: “Phương pháp này được gọi là đọc bên, tức là tiến hành tìm kiếm nhiều hơn trên chính nội dung đó để xác minh xem những gì bạn đang đọc có chính xác hay không, đồng thời, bạn có thể kiểm tra xem các phương tiện truyền thông đáng tin cậy khác có đưa tin hay không những gì bạn đã thấy. Tiêu đề giống nhau."

Qingyuan Jin cũng đưa ra đề xuất của riêng mình. Ông nói: "Vì AI hiện không thể trả lời các câu hỏi tầm xa hoặc quá phức tạp nên chúng ta có thể sử dụng điều này để phát hiện đối phương là người thật hay AI. Ngoài ra, khi gặp sự việc, hãy bình tĩnh suy nghĩ và giữ lý trí trước tiên." và kiềm chế sự bốc đồng của bạn trước khi tiếp tục. Bằng cách xác minh thông tin thu được ở nhiều khía cạnh khác nhau, bạn có thể tránh được những hành vi lừa đảo này với khả năng cao.”

(Các phóng viên Zhang Zhongyuan và Wang Jiayi đã đóng góp cho bài viết này)

Biên tập viên: Lian Shuhua#

Đường dây nóng dịch vụ
Trang web chính thức:{www.dlgzjx.com/}
Thời gian hoạt động:Thứ Hai đến Thứ Bảy(09:00-18:00)
liên hệ chúng tôi
URL:www.dlgzjx.com/
Theo dõi tài khoản công khai

Powered by Nơi tập hợp tin tức bản đồ RSS bản đồ HTML

Copyright 站群系统 © 2013-2024 tin tưc hăng ngay Đã đăng ký Bản quyền