Tiêu đề gốc: "Trí tuệ nhân tạo đang thúc đẩy gian lận tài chính và khiến nó trở nên vô hình hơn như thế nào"
Từ "The Hunt" và "All or Nothing" đến "Parrot Killing" ra mắt tuần trước, các bộ phim liên quan đến lừa đảo đang cung cấp một phương pháp tuyên truyền hiệu quả cho hoạt động kiểm soát tội phạm của Trung Quốc. Có lẽ là nghiêm trọng hơn. Đối với Hoa Kỳ ở bên kia đại dương, chống gian lận có thể trở thành một sự đồng thuận mới khác giữa nước này và Trung Quốc trong một kỷ nguyên bất ổn. Chỉ riêng năm 2020, các cuộc thăm dò ở Mỹ cho thấy có tới 56 triệu người Mỹ bị lừa đảo qua điện thoại, tức khoảng 1/6 dân số Mỹ, trong đó 17% người Mỹ đã bị lừa đảo nhiều lần.
Trong lĩnh vực gian lận viễn thông, Ấn Độ đối với Hoa Kỳ cũng giống như Myanmar đối với Trung Quốc. Nhưng rõ ràng Ấn Độ có nhiều đất để phát triển ngành lừa đảo hơn Myanmar. Một mặt, tiếng Anh, với tư cách là ngôn ngữ chính thức, có tỷ lệ thâm nhập tương đối cao ở Ấn Độ và Ấn Độ cũng có “lợi thế tự nhiên” về nhân tài; mặt khác, Ấn Độ đã trở thành nền tảng ở nước ngoài cho các công ty đa quốc gia lớn. kể từ năm 2000. Những người thuê ngoài dịch vụ khách hàng qua điện thoại tạo ra các trò lừa đảo qua điện thoại mới với giọng điệu giống nhau nhưng nội dung khác nhau. Nhưng với một vòng công nghệ AI mới, “ngai vàng” của Ấn Độ trong lĩnh vực lừa đảo qua điện thoại có thể bị thay thế.
Từ những tin nhắn văn bản đẹp mắt cho đến việc nhân bản giọng nói và hoán đổi khuôn mặt trong video, AI đang mang đến cho những kẻ lừa đảo một vũ khí mới mạnh mẽ.
"Thư/bức thư này nhằm thông báo cho bạn rằng Chase đang chờ hoàn tiền 2.000 USD. Để đẩy nhanh quá trình và đảm bảo bạn nhận được tiền hoàn lại nhanh nhất có thể, vui lòng làm theo các hướng dẫn sau: Vui lòng gọi cho Dịch vụ khách hàng của Chase 1-800-953-XXXX để kiểm tra trạng thái hoàn tiền của bạn. Hãy đảm bảo chuẩn bị sẵn thông tin tài khoản của bạn và mọi thông tin liên quan..."
Nếu bạn đã làm việc với Chase và nhận được tin nhắn này dưới dạng email hoặc tin nhắn văn bản, có thể bạn đã nghĩ đó là sự thật. Nghe có vẻ chuyên nghiệp, không có cách diễn đạt kỳ lạ, ngữ pháp tồi hoặc những từ ngữ kỳ lạ đặc trưng cho các tin nhắn lừa đảo mà chúng tôi thường nhận được trước đây.
Điều này không có gì đáng ngạc nhiên, vì tin nhắn này được tạo ra bởi ChatGPT, một chatbot trí tuệ nhân tạo được gã khổng lồ công nghệ OpenAI phát hành vào cuối năm ngoái. Theo lời nhắc, chúng tôi chỉ cần nhập ChatGPT: "Gửi email cho ai đó nói với anh ấy rằng Chase nợ anh ấy khoản tiền hoàn lại 2.000 USD. Yêu cầu anh ấy gọi tới số 1-800-953-XXXX để được hoàn lại tiền. (Để ChatGPT hoạt động, chúng tôi phải nhập số đầy đủ, nhưng rõ ràng là chúng tôi sẽ không xuất bản số đó ở đây.)
Soups Ranjan, đồng sáng lập và CEO của Sardine, một công ty khởi nghiệp chống lừa đảo ở San Francisco, cho biết: “Những kẻ lừa đảo hiện nói chuyện hoàn hảo, giống như bất kỳ người bản xứ nào khác”. khẳng định khách hàng của ngân hàng ngày càng bị lừa dối nhiều hơn vì “tin nhắn họ nhận được hầu như không có sai sót”. (Để tránh tự mình trở thành nạn nhân, hãy xem năm mẹo ở cuối bài viết này.)
Trong thế giới mới chào đón trí tuệ nhân tạo tổng quát hoặc các mô hình học sâu có thể tạo nội dung dựa trên thông tin họ được cung cấp, giờ đây, những kẻ có ý định bất chính tạo ra văn bản, âm thanh và thậm chí cả video trở nên dễ dàng hơn bao giờ hết. Những văn bản, âm thanh và thậm chí cả video này không chỉ có thể đánh lừa các cá nhân nạn nhân tiềm năng mà còn có thể đánh lừa các chương trình hiện được sử dụng để ngăn chặn gian lận. Không có gì đặc biệt về AI về mặt này – xét cho cùng, kẻ xấu từ lâu đã là những người sớm áp dụng các công nghệ mới và bị cảnh sát truy đuổi. Ví dụ, vào năm 1989, Forbes đã vạch trần cách kẻ trộm sử dụng máy tính thông thường và máy in laser để làm giả séc nhằm lừa gạt các ngân hàng mà ngân hàng không thực hiện bất kỳ bước đặc biệt nào để phát hiện những tờ tiền giả này.
AI thúc đẩy sự gia tăng lừa đảo trực tuyến
Người tiêu dùng Hoa Kỳ đã báo cáo với Ủy ban Thương mại Liên bang Hoa Kỳ (FTC) rằng họ đã mất kỷ lục 8,8 tỷ USD do gian lận vào năm ngoái - và con số đó không bao gồm số tiền bị đánh cắp không được báo cáo.
Ngày nay, trí tuệ nhân tạo tổng hợp đang đặt ra mối đe dọa mà cuối cùng có thể khiến các biện pháp ngăn chặn gian lận tiên tiến nhất hiện nay trở nên lỗi thời, chẳng hạn như xác thực giọng nói và thậm chí cả “kiểm tra hoạt động” được thiết kế để khớp hình đại diện trực tiếp với hình đại diện được ghi lại.
Synchrony, một trong những công ty phát hành thẻ tín dụng lớn nhất Hoa Kỳ với 70 triệu tài khoản đang hoạt động, có hiểu biết trực quan nhất về xu hướng này. Kenneth Williams, phó chủ tịch cấp cao của Synchrony, cho biết trong một email gửi tới Forbes: “Chúng tôi thường thấy mọi người sử dụng hình ảnh và video deepfake để xác thực và chúng tôi có thể cho rằng chúng được tạo ra bằng trí tuệ nhân tạo tổng hợp một cách an toàn”.
Một cuộc khảo sát vào tháng 6 năm 2023 với 650 chuyên gia an ninh mạng của công ty mạng Deep Instinct có trụ sở tại New York cho thấy 3/4 chuyên gia được khảo sát đã chứng kiến sự gia tăng gian lận trực tuyến trong năm qua, với “85% số người được hỏi cho rằng sự gia tăng này là do việc sử dụng về AI được tạo ra bởi những kẻ xấu.”
Ngoài ra, Ủy ban Thương mại Liên bang Hoa Kỳ cũng báo cáo rằng người tiêu dùng Mỹ thiệt hại 8,8 tỷ USD do gian lận vào năm 2022, tăng hơn 40% so với năm 2021. Số tiền bị mất lớn nhất thường đến từ các vụ lừa đảo đầu tư, nhưng lừa đảo mạo danh là phổ biến nhất, đây là một dấu hiệu đáng lo ngại vì những trò gian lận này có thể sẽ được tăng cường hơn nữa bởi trí tuệ nhân tạo.
Tội phạm có thể sử dụng AI theo nhiều cách khác nhau đến chóng mặt. Nếu bạn đăng bài thường xuyên trên mạng xã hội hoặc bất kỳ mạng nào, họ có thể yêu cầu mô hình AI viết theo phong cách của bạn, sau đó họ có thể nhắn tin cho ông bà của bạn và cầu xin họ gửi tiền để giúp bạn. Điều đáng sợ hơn nữa là nếu họ có được một đoạn giọng nói ngắn gọn của một đứa trẻ, họ có thể gọi điện cho cha mẹ đứa trẻ, giả làm con họ và giả vờ bị bắt cóc, yêu cầu cha mẹ đứa trẻ phải trả tiền chuộc. Đó chính xác là những gì đã xảy ra với Jennifer DeStefano, một bà mẹ bốn con ở Arizona, khi cô làm chứng trước Quốc hội vào tháng Sáu.
Không chỉ cha mẹ ông bà, các doanh nghiệp cũng đang là mục tiêu. Tội phạm cũng có thể giả dạng nhà cung cấp và gửi email có vẻ hợp pháp đến kế toán viên nói rằng họ cần nhận thanh toán càng sớm càng tốt, cùng với hướng dẫn thanh toán cho tài khoản ngân hàng mà chúng kiểm soát. Ranjan, Giám đốc điều hành của Sardine, cho biết bản thân nhiều khách hàng khởi nghiệp fintech của Sardine đã rơi vào những cái bẫy này và mất hàng trăm nghìn đô la.
Mặc dù con số đó chưa là gì so với khoản lỗ 35 triệu USD mà một công ty Nhật Bản bị mất vào năm 2020 sau khi giọng nói của giám đốc công ty bị giả mạo (Forbes lần đầu tiên đưa tin về vụ lừa đảo tinh vi này vào thời điểm đó), nhưng giờ đây, nó ngày càng trở nên phổ biến. các trường hợp đang trở nên thường xuyên hơn, khi các công cụ trí tuệ nhân tạo để viết, giả giọng nói và xử lý video đang nhanh chóng trở nên hiệu quả hơn và dễ tiếp cận hơn, ngay cả đối với những kẻ lừa đảo thông thường. Rick Song, đồng sáng lập và CEO của công ty chống lừa đảo Persona, cho biết trước đây bạn cần hàng trăm, hàng nghìn bức ảnh để tạo ra một video deepfake chất lượng cao, nhưng giờ đây bạn chỉ cần một vài bức ảnh là có thể làm được. (Có, bạn có thể tạo video giả mà không cần video thật, nhưng rõ ràng sẽ dễ dàng hơn nếu bạn có sẵn video thật.)
Bẫy và lừa đảo qua điện thoại: Sự nguy hiểm của việc nhân bản âm thanh sâu
Cũng giống như các ngành công nghiệp khác đang áp dụng AI vào hoạt động kinh doanh của mình, những kẻ lừa đảo đang sử dụng các mô hình AI tổng quát do những gã khổng lồ công nghệ phát hành để tạo ra các công cụ sẵn có, chẳng hạn như FraudGPT và WormGPT.
Trong một video YouTube được đăng vào tháng 1, Elon Musk, người giàu nhất thế giới, đã xuất hiện để quảng bá cơ hội đầu tư tiền điện tử mới nhất tới khán giả của mình: Tesla đã tài trợ cho một sự kiện miễn phí trị giá 100 triệu USD, ông tuyên bố, hứa hẹn sẽ mang lại cho người tham gia số tiền gấp đôi. về khoản đầu tư của họ vào các loại tiền điện tử như Bitcoin, Ethereum, Dogecoin hoặc Ethereum. “Tôi biết mọi người ở đây vì một mục đích chung. Bây giờ chúng tôi tổ chức một buổi phát sóng trực tiếp nơi mọi chủ sở hữu tiền điện tử có thể tăng thu nhập của mình”, một phiên bản có độ phân giải thấp của Musk nói trên sân khấu. “Vâng, bạn đã nghe tôi nói đúng rồi, tôi đang tổ chức một sự kiện lớn về tiền điện tử cho SpaceX.”
Đúng, video này là video giả mạo - kẻ lừa đảo đã sử dụng bài phát biểu vào tháng 2 năm 2022 về dự án tàu vũ trụ có thể tái sử dụng của SpaceX để bắt chước hình ảnh và giọng nói của mình. YouTube đã gỡ video xuống nhưng cho đến lúc đó, bất kỳ ai đã gửi tiền điện tử đến địa chỉ trong video gần như chắc chắn sẽ bị hỏng ví. Musk là mục tiêu hàng đầu của các video giả mạo vì có vô số mẫu âm thanh của anh ấy có sẵn trực tuyến để hỗ trợ nhân bản giọng nói AI, nhưng giờ đây hầu như ai cũng có thể bị mạo danh.
Đầu năm nay, Larry Leonard, một người đàn ông 93 tuổi sống trong một cộng đồng hưu trí ở Nam Florida, đang ở nhà thì vợ ông trả lời một cuộc điện thoại trên điện thoại cố định của bà. Một phút sau, cô đưa điện thoại cho Leonard, và anh nghe thấy một giọng nói ở đầu bên kia giống như của cháu trai 27 tuổi của mình, nói rằng anh đã tông vào một phụ nữ bằng xe tải của mình và đang ở trong tù. Mặc dù Leonard nhận thấy người gọi ông gọi ông là "Ông nội" thay vì "Ông nội" như cháu trai ông thích gọi hơn, nhưng giọng của người đàn ông này giống hệt giọng của cháu trai ông, và thực tế là cháu trai ông thực sự đã lái một chiếc xe tải. sự nghi ngờ của anh sang một bên. Khi Leonard trả lời rằng ông sẽ gọi cho bố mẹ cháu trai mình thì người gọi đã cúp máy. Leonard sớm biết rằng cháu trai mình vẫn an toàn và toàn bộ câu chuyện - và giọng nói kể lại - là sai sự thật.
Leonard nói với Forbes: "Việc họ có thể nắm bắt được giọng nói, ngữ điệu và giọng điệu của anh ấy một cách chính xác đến mức khiến tôi vừa kinh hãi vừa ngạc nhiên. Không có khoảng dừng giữa các câu hoặc từ của họ, điều đó cho thấy rằng các từ được đọc." từ một chiếc máy hoặc một chương trình, nhưng chúng nghe giống như thật vậy.”
Người cao niên thường là mục tiêu của những kiểu lừa đảo này, nhưng đã đến lúc mỗi chúng ta phải cảnh giác với các cuộc gọi đến, ngay cả khi chúng đến từ một số trông quen thuộc – chẳng hạn như hàng xóm. Kathy Stokes, giám đốc chương trình phòng chống gian lận tại AARP, than thở: "Càng ngày, chúng tôi không thể tin tưởng vào các cuộc gọi mà chúng tôi nhận được vì kẻ lừa đảo đã giả mạo [số điện thoại]". 38 triệu thành viên từ 50 tuổi trở lên. "Chúng tôi không thể tin vào những email chúng tôi nhận được, chúng tôi không thể tin vào những tin nhắn văn bản chúng tôi nhận được. Vì vậy, chúng tôi bị loại khỏi những cách giao tiếp thông thường với nhau."
Trong một diễn biến đáng lo ngại khác, ngay cả các biện pháp an ninh mới cũng đang bị đe dọa. Ví dụ, các tổ chức tài chính lớn như quỹ tương hỗ khổng lồ Vanguard Group, phục vụ hơn 50 triệu nhà đầu tư, đang cung cấp cho khách hàng tùy chọn nhận một số dịch vụ nhất định bằng cách nói chuyện điện thoại thay vì trả lời các câu hỏi bảo mật. "Giọng nói của bạn là duy nhất, giống như dấu vân tay của bạn."
Vanguard giải thích trong một video vào tháng 11 năm 2021 kêu gọi khách hàng đăng ký xác minh giọng nói. Nhưng những tiến bộ trong công nghệ nhân bản giọng nói cho thấy các công ty cần phải suy nghĩ lại về cách làm này. Ranjan của Sardine cho biết ông đã thấy một số người sử dụng công nghệ nhân bản giọng nói để xác thực thành công bản thân với ngân hàng và giành quyền truy cập vào tài khoản. Người phát ngôn của Vanguard từ chối bình luận về những bước công ty có thể thực hiện để ngăn chặn sự tiến bộ của công nghệ nhân bản giọng nói.
Các doanh nghiệp nhỏ (và thậm chí cả doanh nghiệp lớn) sử dụng các thủ tục không chính thức để thanh toán hóa đơn hoặc chuyển tiền cũng dễ bị tổn thương bởi các tác nhân xấu. Từ lâu, việc những kẻ lừa đảo yêu cầu thanh toán bằng cách gửi hóa đơn giả mạo có vẻ như là của các nhà cung cấp qua email đã trở nên phổ biến.
Giờ đây, bằng cách tận dụng các công cụ trí tuệ nhân tạo có sẵn rộng rãi, những kẻ lừa đảo có thể sử dụng phiên bản nhân bản của giọng nói điều hành để gọi cho nhân viên công ty, giả vờ ủy quyền giao dịch hoặc yêu cầu nhân viên tiết lộ dữ liệu nhạy cảm trong phần mềm "lừa đảo" hoặc "lừa đảo bằng giọng nói". Giám đốc điều hành của Persona, Rick Song, cho biết: “Việc mạo danh các giám đốc điều hành và thực hiện hành vi gian lận có giá trị cao là rất lớn và là một mối đe dọa thực sự”.
AI có thể đánh lừa các chuyên gia lừa đảo?
Tội phạm ngày càng sử dụng trí tuệ nhân tạo để đánh lừa các chuyên gia lừa đảo—ngay cả khi các chuyên gia lừa đảo và công ty công nghệ này đóng vai trò là những người bảo vệ có vũ trang và xe chở tiền trong hệ thống tài chính kỹ thuật số ngày nay.
Một trong những chức năng chính của các công ty này là xác minh danh tính của người tiêu dùng để bảo vệ các tổ chức tài chính và khách hàng của họ khỏi bị thua lỗ. Một trong những cách mà các công ty phòng chống gian lận như Socure, Mitek và Onfido xác minh danh tính của khách hàng là thông qua "kiểm tra độ sống"—tức là họ yêu cầu bạn chụp ảnh hoặc quay video selfie, sau đó sử dụng ảnh hoặc video đó để khớp với khuôn mặt của bạn của bạn. Hình ảnh chứng minh nhân dân phải được gửi để đối chiếu.
Sau khi biết hệ thống hoạt động như thế nào, kẻ trộm mua ảnh giấy phép lái xe thật trên web đen và sau đó sử dụng các chương trình hoán đổi khuôn mặt qua video—các công cụ ngày càng rẻ hơn và dễ tiếp cận hơn—để hình đại diện ngoài đời thực của người khác được chồng lên khuôn mặt của họ. . Sau đó, họ có thể nói và di chuyển đầu phía sau khuôn mặt kỹ thuật số của người khác, tăng cơ hội đánh lừa việc kiểm tra hoạt động.
Song cho biết: “Đã có sự tăng trưởng đáng kể về số lượng khuôn mặt giả được tạo ra bởi AI và có chất lượng cao, đồng thời cũng có sự gia tăng trong các cuộc tấn công lừa đảo được tạo tự động nhằm mục tiêu kiểm tra hoạt động”. theo ngành, nhưng đối với một số người, “chúng ta có thể thấy con số gấp 10 lần năm ngoái.” Các công ty Fintech và tiền điện tử đặc biệt dễ bị tổn thương trước những cuộc tấn công như vậy.
Các chuyên gia chống gian lận nói với Forbes rằng họ nghi ngờ các nhà cung cấp xác minh danh tính cao cấp như Socure và Mitek đã thấy các chỉ số ngăn chặn gian lận của họ giảm xuống. Giám đốc điều hành Socure, Johnny Ayers khẳng định "điều này hoàn toàn sai sự thật" và cho biết mô hình mới mà họ đã triển khai trong vài tháng qua đã khiến số vụ lừa đảo mạo danh danh tính rủi ro nhất trong 2% hàng đầu tăng lên 14%. Tuy nhiên, ông thừa nhận rằng một số khách hàng đã chậm chấp nhận các mô hình mới của Socure, điều này có thể ảnh hưởng đến hiệu suất của họ. Ayers cho biết: “Một trong những khách hàng của chúng tôi là một trong ba ngân hàng hàng đầu trong nước và hiện họ kém bốn phiên bản”.
Mitek từ chối bình luận cụ thể về các chỉ số hiệu suất chống gian lận của các mô hình của mình, nhưng phó chủ tịch cấp cao Chris Briggs của nó nói rằng nếu một mô hình cụ thể được phát triển cách đây 18 tháng, "thì đúng vậy, bạn có thể lập luận rằng mô hình cũ không tốt bằng." trong việc ngăn chặn gian lận như mô hình mới. Theo thời gian, Mitek sẽ tiếp tục đào tạo và đào tạo lại mô hình bằng cách sử dụng các luồng dữ liệu thực tế cũng như dữ liệu trong phòng thí nghiệm.”
JPMorgan Chase, Bank of America và Wells Fargo đều từ chối bình luận về những thách thức mà họ gặp phải với gian lận AI. Người phát ngôn của Chime, ngân hàng kỹ thuật số lớn nhất ở Hoa Kỳ từng gặp phải các vấn đề gian lận lớn trong quá khứ, cho biết ngân hàng vẫn chưa thấy sự gia tăng gian lận liên quan đến trí tuệ nhân tạo tổng hợp.
Ngày nay, gian lận tài chính đứng sau các tội phạm khác nhau, từ tội phạm đơn lẻ đến các băng nhóm phức tạp gồm hàng chục, thậm chí hàng trăm tội phạm. Các băng nhóm tội phạm lớn nhất, giống như các công ty, có cơ cấu tổ chức nhiều tầng và đội ngũ kỹ thuật cấp cao bao gồm cả các nhà khoa học dữ liệu.
Ranjan cho biết: "Tất cả bọn chúng đều có trung tâm chỉ huy và kiểm soát riêng. Một số thành viên băng đảng chịu trách nhiệm giăng bẫy - chẳng hạn như gửi email lừa đảo hoặc gọi điện thoại". Nếu bị mắc bẫy, chúng sẽ cử một đồng phạm khác tiếp xúc với người bị lừa, đồng phạm này giả danh giám đốc chi nhánh ngân hàng và cố gắng dụ bạn chuyển tiền ra khỏi tài khoản của bạn. Một bước quan trọng khác: Họ thường yêu cầu bạn cài đặt một chương trình như Microsoft TeamViewer hoặc Citrix để điều khiển máy tính của bạn từ xa. Ranjan nói: "Chúng có thể làm cho máy tính của bạn biến thành màu đen hoàn toàn. Sau đó, kẻ lừa đảo sẽ thực hiện nhiều giao dịch hơn (bằng tiền của bạn) và rút tiền đến một URL khác mà chúng kiểm soát". người già là nói dối rằng tài khoản của bên kia đã bị kẻ lừa đảo kiểm soát và cần có sự hợp tác của bên kia để lấy lại tiền.
Các chiến lược khác nhau cho OpenAI và Meta
Quá trình lừa đảo trên không nhất thiết phải sử dụng trí tuệ nhân tạo, nhưng các công cụ trí tuệ nhân tạo có thể khiến chiến thuật của những kẻ lừa đảo trở nên hiệu quả và đáng tin cậy hơn.
OpenAI đã cố gắng đưa ra các biện pháp bảo vệ để ngăn chặn mọi người sử dụng ChatGPT để lừa đảo. Ví dụ: nếu người dùng yêu cầu ChatGPT soạn thảo email yêu cầu số tài khoản ngân hàng của ai đó, ChatGPT sẽ từ chối thực hiện hướng dẫn và trả lời: "Tôi xin lỗi, nhưng tôi không thể hỗ trợ yêu cầu này". phạm tội lừa đảo Vẫn rất dễ dàng.
OpenAI từ chối bình luận về bài viết này, chỉ giới thiệu cho chúng tôi các bài đăng trên blog do công ty xuất bản, một trong số đó được xuất bản vào tháng 3 năm 2022 và có nội dung: “Không có viên đạn bạc nào cho việc triển khai có trách nhiệm, vì vậy chúng tôi cố gắng phát triển và hiểu những hạn chế của mô hình của chúng tôi và các con đường lạm dụng tiềm năng cũng như giải quyết các vấn đề liên quan ở mọi giai đoạn triển khai."
So với OpenAI, mô hình ngôn ngữ lớn Llama 2 do Meta đưa ra có nhiều khả năng bị bọn tội phạm có kinh nghiệm sử dụng làm công cụ phạm tội vì Llama 2 là mô hình nguồn mở và tất cả các mã đều có thể được xem và sử dụng. Các chuyên gia cho rằng điều này mở ra nhiều cơ hội hơn cho bọn tội phạm lấy mô hình này cho mình rồi sử dụng để phá hoại an ninh mạng. Ví dụ: người ta có thể xây dựng các công cụ AI độc hại trên đó. Forbes đã yêu cầu Meta bình luận nhưng không nhận được phản hồi. Giám đốc điều hành Meta Mark Zuckerberg cho biết vào tháng 7 rằng việc duy trì nguồn mở Llama sẽ cải thiện "sự an toàn và bảo mật của nó vì phần mềm nguồn mở sẽ được xem xét kỹ lưỡng hơn và nhiều người có thể làm việc cùng nhau hơn".
Các công ty phòng chống gian lận cũng đang cố gắng đổi mới nhanh hơn để theo kịp những tiến bộ trong AI và tận dụng nhiều hơn các loại dữ liệu mới để phát hiện những kẻ lừa đảo. Ranjan nói: “Cách bạn gõ, cách bạn đi bộ hoặc cách bạn cầm điện thoại - những đặc điểm hành vi này xác định con người bạn, nhưng dữ liệu này không thể truy cập được ở phạm vi công cộng”. họ nói họ là ai. Người đó, AI nhúng sẽ đóng vai trò lớn." Nói cách khác, chúng ta cần AI để bắt tội phạm sử dụng AI để lừa đảo.
Năm mẹo để bảo vệ bạn khỏi gian lận AI:
Bài viết này được dịch từ
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Liệu AI có trở thành “chúa tể” tiếp theo của nạn lừa đảo qua điện thoại toàn cầu?
Bản gốc: Jeff Kauflin, Emily Mason
Nguồn: Forbes
Tiêu đề gốc: "Trí tuệ nhân tạo đang thúc đẩy gian lận tài chính và khiến nó trở nên vô hình hơn như thế nào"
Từ "The Hunt" và "All or Nothing" đến "Parrot Killing" ra mắt tuần trước, các bộ phim liên quan đến lừa đảo đang cung cấp một phương pháp tuyên truyền hiệu quả cho hoạt động kiểm soát tội phạm của Trung Quốc. Có lẽ là nghiêm trọng hơn. Đối với Hoa Kỳ ở bên kia đại dương, chống gian lận có thể trở thành một sự đồng thuận mới khác giữa nước này và Trung Quốc trong một kỷ nguyên bất ổn. Chỉ riêng năm 2020, các cuộc thăm dò ở Mỹ cho thấy có tới 56 triệu người Mỹ bị lừa đảo qua điện thoại, tức khoảng 1/6 dân số Mỹ, trong đó 17% người Mỹ đã bị lừa đảo nhiều lần.
Trong lĩnh vực gian lận viễn thông, Ấn Độ đối với Hoa Kỳ cũng giống như Myanmar đối với Trung Quốc. Nhưng rõ ràng Ấn Độ có nhiều đất để phát triển ngành lừa đảo hơn Myanmar. Một mặt, tiếng Anh, với tư cách là ngôn ngữ chính thức, có tỷ lệ thâm nhập tương đối cao ở Ấn Độ và Ấn Độ cũng có “lợi thế tự nhiên” về nhân tài; mặt khác, Ấn Độ đã trở thành nền tảng ở nước ngoài cho các công ty đa quốc gia lớn. kể từ năm 2000. Những người thuê ngoài dịch vụ khách hàng qua điện thoại tạo ra các trò lừa đảo qua điện thoại mới với giọng điệu giống nhau nhưng nội dung khác nhau. Nhưng với một vòng công nghệ AI mới, “ngai vàng” của Ấn Độ trong lĩnh vực lừa đảo qua điện thoại có thể bị thay thế.
Từ những tin nhắn văn bản đẹp mắt cho đến việc nhân bản giọng nói và hoán đổi khuôn mặt trong video, AI đang mang đến cho những kẻ lừa đảo một vũ khí mới mạnh mẽ.
"Thư/bức thư này nhằm thông báo cho bạn rằng Chase đang chờ hoàn tiền 2.000 USD. Để đẩy nhanh quá trình và đảm bảo bạn nhận được tiền hoàn lại nhanh nhất có thể, vui lòng làm theo các hướng dẫn sau: Vui lòng gọi cho Dịch vụ khách hàng của Chase 1-800-953-XXXX để kiểm tra trạng thái hoàn tiền của bạn. Hãy đảm bảo chuẩn bị sẵn thông tin tài khoản của bạn và mọi thông tin liên quan..."
Nếu bạn đã làm việc với Chase và nhận được tin nhắn này dưới dạng email hoặc tin nhắn văn bản, có thể bạn đã nghĩ đó là sự thật. Nghe có vẻ chuyên nghiệp, không có cách diễn đạt kỳ lạ, ngữ pháp tồi hoặc những từ ngữ kỳ lạ đặc trưng cho các tin nhắn lừa đảo mà chúng tôi thường nhận được trước đây.
Điều này không có gì đáng ngạc nhiên, vì tin nhắn này được tạo ra bởi ChatGPT, một chatbot trí tuệ nhân tạo được gã khổng lồ công nghệ OpenAI phát hành vào cuối năm ngoái. Theo lời nhắc, chúng tôi chỉ cần nhập ChatGPT: "Gửi email cho ai đó nói với anh ấy rằng Chase nợ anh ấy khoản tiền hoàn lại 2.000 USD. Yêu cầu anh ấy gọi tới số 1-800-953-XXXX để được hoàn lại tiền. (Để ChatGPT hoạt động, chúng tôi phải nhập số đầy đủ, nhưng rõ ràng là chúng tôi sẽ không xuất bản số đó ở đây.)
Soups Ranjan, đồng sáng lập và CEO của Sardine, một công ty khởi nghiệp chống lừa đảo ở San Francisco, cho biết: “Những kẻ lừa đảo hiện nói chuyện hoàn hảo, giống như bất kỳ người bản xứ nào khác”. khẳng định khách hàng của ngân hàng ngày càng bị lừa dối nhiều hơn vì “tin nhắn họ nhận được hầu như không có sai sót”. (Để tránh tự mình trở thành nạn nhân, hãy xem năm mẹo ở cuối bài viết này.)
Trong thế giới mới chào đón trí tuệ nhân tạo tổng quát hoặc các mô hình học sâu có thể tạo nội dung dựa trên thông tin họ được cung cấp, giờ đây, những kẻ có ý định bất chính tạo ra văn bản, âm thanh và thậm chí cả video trở nên dễ dàng hơn bao giờ hết. Những văn bản, âm thanh và thậm chí cả video này không chỉ có thể đánh lừa các cá nhân nạn nhân tiềm năng mà còn có thể đánh lừa các chương trình hiện được sử dụng để ngăn chặn gian lận. Không có gì đặc biệt về AI về mặt này – xét cho cùng, kẻ xấu từ lâu đã là những người sớm áp dụng các công nghệ mới và bị cảnh sát truy đuổi. Ví dụ, vào năm 1989, Forbes đã vạch trần cách kẻ trộm sử dụng máy tính thông thường và máy in laser để làm giả séc nhằm lừa gạt các ngân hàng mà ngân hàng không thực hiện bất kỳ bước đặc biệt nào để phát hiện những tờ tiền giả này.
AI thúc đẩy sự gia tăng lừa đảo trực tuyến
Ngày nay, trí tuệ nhân tạo tổng hợp đang đặt ra mối đe dọa mà cuối cùng có thể khiến các biện pháp ngăn chặn gian lận tiên tiến nhất hiện nay trở nên lỗi thời, chẳng hạn như xác thực giọng nói và thậm chí cả “kiểm tra hoạt động” được thiết kế để khớp hình đại diện trực tiếp với hình đại diện được ghi lại.
Synchrony, một trong những công ty phát hành thẻ tín dụng lớn nhất Hoa Kỳ với 70 triệu tài khoản đang hoạt động, có hiểu biết trực quan nhất về xu hướng này. Kenneth Williams, phó chủ tịch cấp cao của Synchrony, cho biết trong một email gửi tới Forbes: “Chúng tôi thường thấy mọi người sử dụng hình ảnh và video deepfake để xác thực và chúng tôi có thể cho rằng chúng được tạo ra bằng trí tuệ nhân tạo tổng hợp một cách an toàn”.
Một cuộc khảo sát vào tháng 6 năm 2023 với 650 chuyên gia an ninh mạng của công ty mạng Deep Instinct có trụ sở tại New York cho thấy 3/4 chuyên gia được khảo sát đã chứng kiến sự gia tăng gian lận trực tuyến trong năm qua, với “85% số người được hỏi cho rằng sự gia tăng này là do việc sử dụng về AI được tạo ra bởi những kẻ xấu.”
Ngoài ra, Ủy ban Thương mại Liên bang Hoa Kỳ cũng báo cáo rằng người tiêu dùng Mỹ thiệt hại 8,8 tỷ USD do gian lận vào năm 2022, tăng hơn 40% so với năm 2021. Số tiền bị mất lớn nhất thường đến từ các vụ lừa đảo đầu tư, nhưng lừa đảo mạo danh là phổ biến nhất, đây là một dấu hiệu đáng lo ngại vì những trò gian lận này có thể sẽ được tăng cường hơn nữa bởi trí tuệ nhân tạo.
Tội phạm có thể sử dụng AI theo nhiều cách khác nhau đến chóng mặt. Nếu bạn đăng bài thường xuyên trên mạng xã hội hoặc bất kỳ mạng nào, họ có thể yêu cầu mô hình AI viết theo phong cách của bạn, sau đó họ có thể nhắn tin cho ông bà của bạn và cầu xin họ gửi tiền để giúp bạn. Điều đáng sợ hơn nữa là nếu họ có được một đoạn giọng nói ngắn gọn của một đứa trẻ, họ có thể gọi điện cho cha mẹ đứa trẻ, giả làm con họ và giả vờ bị bắt cóc, yêu cầu cha mẹ đứa trẻ phải trả tiền chuộc. Đó chính xác là những gì đã xảy ra với Jennifer DeStefano, một bà mẹ bốn con ở Arizona, khi cô làm chứng trước Quốc hội vào tháng Sáu.
Không chỉ cha mẹ ông bà, các doanh nghiệp cũng đang là mục tiêu. Tội phạm cũng có thể giả dạng nhà cung cấp và gửi email có vẻ hợp pháp đến kế toán viên nói rằng họ cần nhận thanh toán càng sớm càng tốt, cùng với hướng dẫn thanh toán cho tài khoản ngân hàng mà chúng kiểm soát. Ranjan, Giám đốc điều hành của Sardine, cho biết bản thân nhiều khách hàng khởi nghiệp fintech của Sardine đã rơi vào những cái bẫy này và mất hàng trăm nghìn đô la.
Mặc dù con số đó chưa là gì so với khoản lỗ 35 triệu USD mà một công ty Nhật Bản bị mất vào năm 2020 sau khi giọng nói của giám đốc công ty bị giả mạo (Forbes lần đầu tiên đưa tin về vụ lừa đảo tinh vi này vào thời điểm đó), nhưng giờ đây, nó ngày càng trở nên phổ biến. các trường hợp đang trở nên thường xuyên hơn, khi các công cụ trí tuệ nhân tạo để viết, giả giọng nói và xử lý video đang nhanh chóng trở nên hiệu quả hơn và dễ tiếp cận hơn, ngay cả đối với những kẻ lừa đảo thông thường. Rick Song, đồng sáng lập và CEO của công ty chống lừa đảo Persona, cho biết trước đây bạn cần hàng trăm, hàng nghìn bức ảnh để tạo ra một video deepfake chất lượng cao, nhưng giờ đây bạn chỉ cần một vài bức ảnh là có thể làm được. (Có, bạn có thể tạo video giả mà không cần video thật, nhưng rõ ràng sẽ dễ dàng hơn nếu bạn có sẵn video thật.)
Bẫy và lừa đảo qua điện thoại: Sự nguy hiểm của việc nhân bản âm thanh sâu
Cũng giống như các ngành công nghiệp khác đang áp dụng AI vào hoạt động kinh doanh của mình, những kẻ lừa đảo đang sử dụng các mô hình AI tổng quát do những gã khổng lồ công nghệ phát hành để tạo ra các công cụ sẵn có, chẳng hạn như FraudGPT và WormGPT.
Trong một video YouTube được đăng vào tháng 1, Elon Musk, người giàu nhất thế giới, đã xuất hiện để quảng bá cơ hội đầu tư tiền điện tử mới nhất tới khán giả của mình: Tesla đã tài trợ cho một sự kiện miễn phí trị giá 100 triệu USD, ông tuyên bố, hứa hẹn sẽ mang lại cho người tham gia số tiền gấp đôi. về khoản đầu tư của họ vào các loại tiền điện tử như Bitcoin, Ethereum, Dogecoin hoặc Ethereum. “Tôi biết mọi người ở đây vì một mục đích chung. Bây giờ chúng tôi tổ chức một buổi phát sóng trực tiếp nơi mọi chủ sở hữu tiền điện tử có thể tăng thu nhập của mình”, một phiên bản có độ phân giải thấp của Musk nói trên sân khấu. “Vâng, bạn đã nghe tôi nói đúng rồi, tôi đang tổ chức một sự kiện lớn về tiền điện tử cho SpaceX.”
Đúng, video này là video giả mạo - kẻ lừa đảo đã sử dụng bài phát biểu vào tháng 2 năm 2022 về dự án tàu vũ trụ có thể tái sử dụng của SpaceX để bắt chước hình ảnh và giọng nói của mình. YouTube đã gỡ video xuống nhưng cho đến lúc đó, bất kỳ ai đã gửi tiền điện tử đến địa chỉ trong video gần như chắc chắn sẽ bị hỏng ví. Musk là mục tiêu hàng đầu của các video giả mạo vì có vô số mẫu âm thanh của anh ấy có sẵn trực tuyến để hỗ trợ nhân bản giọng nói AI, nhưng giờ đây hầu như ai cũng có thể bị mạo danh.
Đầu năm nay, Larry Leonard, một người đàn ông 93 tuổi sống trong một cộng đồng hưu trí ở Nam Florida, đang ở nhà thì vợ ông trả lời một cuộc điện thoại trên điện thoại cố định của bà. Một phút sau, cô đưa điện thoại cho Leonard, và anh nghe thấy một giọng nói ở đầu bên kia giống như của cháu trai 27 tuổi của mình, nói rằng anh đã tông vào một phụ nữ bằng xe tải của mình và đang ở trong tù. Mặc dù Leonard nhận thấy người gọi ông gọi ông là "Ông nội" thay vì "Ông nội" như cháu trai ông thích gọi hơn, nhưng giọng của người đàn ông này giống hệt giọng của cháu trai ông, và thực tế là cháu trai ông thực sự đã lái một chiếc xe tải. sự nghi ngờ của anh sang một bên. Khi Leonard trả lời rằng ông sẽ gọi cho bố mẹ cháu trai mình thì người gọi đã cúp máy. Leonard sớm biết rằng cháu trai mình vẫn an toàn và toàn bộ câu chuyện - và giọng nói kể lại - là sai sự thật.
Leonard nói với Forbes: "Việc họ có thể nắm bắt được giọng nói, ngữ điệu và giọng điệu của anh ấy một cách chính xác đến mức khiến tôi vừa kinh hãi vừa ngạc nhiên. Không có khoảng dừng giữa các câu hoặc từ của họ, điều đó cho thấy rằng các từ được đọc." từ một chiếc máy hoặc một chương trình, nhưng chúng nghe giống như thật vậy.”
Người cao niên thường là mục tiêu của những kiểu lừa đảo này, nhưng đã đến lúc mỗi chúng ta phải cảnh giác với các cuộc gọi đến, ngay cả khi chúng đến từ một số trông quen thuộc – chẳng hạn như hàng xóm. Kathy Stokes, giám đốc chương trình phòng chống gian lận tại AARP, than thở: "Càng ngày, chúng tôi không thể tin tưởng vào các cuộc gọi mà chúng tôi nhận được vì kẻ lừa đảo đã giả mạo [số điện thoại]". 38 triệu thành viên từ 50 tuổi trở lên. "Chúng tôi không thể tin vào những email chúng tôi nhận được, chúng tôi không thể tin vào những tin nhắn văn bản chúng tôi nhận được. Vì vậy, chúng tôi bị loại khỏi những cách giao tiếp thông thường với nhau."
Trong một diễn biến đáng lo ngại khác, ngay cả các biện pháp an ninh mới cũng đang bị đe dọa. Ví dụ, các tổ chức tài chính lớn như quỹ tương hỗ khổng lồ Vanguard Group, phục vụ hơn 50 triệu nhà đầu tư, đang cung cấp cho khách hàng tùy chọn nhận một số dịch vụ nhất định bằng cách nói chuyện điện thoại thay vì trả lời các câu hỏi bảo mật. "Giọng nói của bạn là duy nhất, giống như dấu vân tay của bạn."
Vanguard giải thích trong một video vào tháng 11 năm 2021 kêu gọi khách hàng đăng ký xác minh giọng nói. Nhưng những tiến bộ trong công nghệ nhân bản giọng nói cho thấy các công ty cần phải suy nghĩ lại về cách làm này. Ranjan của Sardine cho biết ông đã thấy một số người sử dụng công nghệ nhân bản giọng nói để xác thực thành công bản thân với ngân hàng và giành quyền truy cập vào tài khoản. Người phát ngôn của Vanguard từ chối bình luận về những bước công ty có thể thực hiện để ngăn chặn sự tiến bộ của công nghệ nhân bản giọng nói.
Các doanh nghiệp nhỏ (và thậm chí cả doanh nghiệp lớn) sử dụng các thủ tục không chính thức để thanh toán hóa đơn hoặc chuyển tiền cũng dễ bị tổn thương bởi các tác nhân xấu. Từ lâu, việc những kẻ lừa đảo yêu cầu thanh toán bằng cách gửi hóa đơn giả mạo có vẻ như là của các nhà cung cấp qua email đã trở nên phổ biến.
Giờ đây, bằng cách tận dụng các công cụ trí tuệ nhân tạo có sẵn rộng rãi, những kẻ lừa đảo có thể sử dụng phiên bản nhân bản của giọng nói điều hành để gọi cho nhân viên công ty, giả vờ ủy quyền giao dịch hoặc yêu cầu nhân viên tiết lộ dữ liệu nhạy cảm trong phần mềm "lừa đảo" hoặc "lừa đảo bằng giọng nói". Giám đốc điều hành của Persona, Rick Song, cho biết: “Việc mạo danh các giám đốc điều hành và thực hiện hành vi gian lận có giá trị cao là rất lớn và là một mối đe dọa thực sự”.
AI có thể đánh lừa các chuyên gia lừa đảo?
Tội phạm ngày càng sử dụng trí tuệ nhân tạo để đánh lừa các chuyên gia lừa đảo—ngay cả khi các chuyên gia lừa đảo và công ty công nghệ này đóng vai trò là những người bảo vệ có vũ trang và xe chở tiền trong hệ thống tài chính kỹ thuật số ngày nay.
Một trong những chức năng chính của các công ty này là xác minh danh tính của người tiêu dùng để bảo vệ các tổ chức tài chính và khách hàng của họ khỏi bị thua lỗ. Một trong những cách mà các công ty phòng chống gian lận như Socure, Mitek và Onfido xác minh danh tính của khách hàng là thông qua "kiểm tra độ sống"—tức là họ yêu cầu bạn chụp ảnh hoặc quay video selfie, sau đó sử dụng ảnh hoặc video đó để khớp với khuôn mặt của bạn của bạn. Hình ảnh chứng minh nhân dân phải được gửi để đối chiếu.
Sau khi biết hệ thống hoạt động như thế nào, kẻ trộm mua ảnh giấy phép lái xe thật trên web đen và sau đó sử dụng các chương trình hoán đổi khuôn mặt qua video—các công cụ ngày càng rẻ hơn và dễ tiếp cận hơn—để hình đại diện ngoài đời thực của người khác được chồng lên khuôn mặt của họ. . Sau đó, họ có thể nói và di chuyển đầu phía sau khuôn mặt kỹ thuật số của người khác, tăng cơ hội đánh lừa việc kiểm tra hoạt động.
Song cho biết: “Đã có sự tăng trưởng đáng kể về số lượng khuôn mặt giả được tạo ra bởi AI và có chất lượng cao, đồng thời cũng có sự gia tăng trong các cuộc tấn công lừa đảo được tạo tự động nhằm mục tiêu kiểm tra hoạt động”. theo ngành, nhưng đối với một số người, “chúng ta có thể thấy con số gấp 10 lần năm ngoái.” Các công ty Fintech và tiền điện tử đặc biệt dễ bị tổn thương trước những cuộc tấn công như vậy.
Các chuyên gia chống gian lận nói với Forbes rằng họ nghi ngờ các nhà cung cấp xác minh danh tính cao cấp như Socure và Mitek đã thấy các chỉ số ngăn chặn gian lận của họ giảm xuống. Giám đốc điều hành Socure, Johnny Ayers khẳng định "điều này hoàn toàn sai sự thật" và cho biết mô hình mới mà họ đã triển khai trong vài tháng qua đã khiến số vụ lừa đảo mạo danh danh tính rủi ro nhất trong 2% hàng đầu tăng lên 14%. Tuy nhiên, ông thừa nhận rằng một số khách hàng đã chậm chấp nhận các mô hình mới của Socure, điều này có thể ảnh hưởng đến hiệu suất của họ. Ayers cho biết: “Một trong những khách hàng của chúng tôi là một trong ba ngân hàng hàng đầu trong nước và hiện họ kém bốn phiên bản”.
Mitek từ chối bình luận cụ thể về các chỉ số hiệu suất chống gian lận của các mô hình của mình, nhưng phó chủ tịch cấp cao Chris Briggs của nó nói rằng nếu một mô hình cụ thể được phát triển cách đây 18 tháng, "thì đúng vậy, bạn có thể lập luận rằng mô hình cũ không tốt bằng." trong việc ngăn chặn gian lận như mô hình mới. Theo thời gian, Mitek sẽ tiếp tục đào tạo và đào tạo lại mô hình bằng cách sử dụng các luồng dữ liệu thực tế cũng như dữ liệu trong phòng thí nghiệm.”
JPMorgan Chase, Bank of America và Wells Fargo đều từ chối bình luận về những thách thức mà họ gặp phải với gian lận AI. Người phát ngôn của Chime, ngân hàng kỹ thuật số lớn nhất ở Hoa Kỳ từng gặp phải các vấn đề gian lận lớn trong quá khứ, cho biết ngân hàng vẫn chưa thấy sự gia tăng gian lận liên quan đến trí tuệ nhân tạo tổng hợp.
Ngày nay, gian lận tài chính đứng sau các tội phạm khác nhau, từ tội phạm đơn lẻ đến các băng nhóm phức tạp gồm hàng chục, thậm chí hàng trăm tội phạm. Các băng nhóm tội phạm lớn nhất, giống như các công ty, có cơ cấu tổ chức nhiều tầng và đội ngũ kỹ thuật cấp cao bao gồm cả các nhà khoa học dữ liệu.
Ranjan cho biết: "Tất cả bọn chúng đều có trung tâm chỉ huy và kiểm soát riêng. Một số thành viên băng đảng chịu trách nhiệm giăng bẫy - chẳng hạn như gửi email lừa đảo hoặc gọi điện thoại". Nếu bị mắc bẫy, chúng sẽ cử một đồng phạm khác tiếp xúc với người bị lừa, đồng phạm này giả danh giám đốc chi nhánh ngân hàng và cố gắng dụ bạn chuyển tiền ra khỏi tài khoản của bạn. Một bước quan trọng khác: Họ thường yêu cầu bạn cài đặt một chương trình như Microsoft TeamViewer hoặc Citrix để điều khiển máy tính của bạn từ xa. Ranjan nói: "Chúng có thể làm cho máy tính của bạn biến thành màu đen hoàn toàn. Sau đó, kẻ lừa đảo sẽ thực hiện nhiều giao dịch hơn (bằng tiền của bạn) và rút tiền đến một URL khác mà chúng kiểm soát". người già là nói dối rằng tài khoản của bên kia đã bị kẻ lừa đảo kiểm soát và cần có sự hợp tác của bên kia để lấy lại tiền.
Các chiến lược khác nhau cho OpenAI và Meta
Quá trình lừa đảo trên không nhất thiết phải sử dụng trí tuệ nhân tạo, nhưng các công cụ trí tuệ nhân tạo có thể khiến chiến thuật của những kẻ lừa đảo trở nên hiệu quả và đáng tin cậy hơn.
OpenAI đã cố gắng đưa ra các biện pháp bảo vệ để ngăn chặn mọi người sử dụng ChatGPT để lừa đảo. Ví dụ: nếu người dùng yêu cầu ChatGPT soạn thảo email yêu cầu số tài khoản ngân hàng của ai đó, ChatGPT sẽ từ chối thực hiện hướng dẫn và trả lời: "Tôi xin lỗi, nhưng tôi không thể hỗ trợ yêu cầu này". phạm tội lừa đảo Vẫn rất dễ dàng.
OpenAI từ chối bình luận về bài viết này, chỉ giới thiệu cho chúng tôi các bài đăng trên blog do công ty xuất bản, một trong số đó được xuất bản vào tháng 3 năm 2022 và có nội dung: “Không có viên đạn bạc nào cho việc triển khai có trách nhiệm, vì vậy chúng tôi cố gắng phát triển và hiểu những hạn chế của mô hình của chúng tôi và các con đường lạm dụng tiềm năng cũng như giải quyết các vấn đề liên quan ở mọi giai đoạn triển khai."
So với OpenAI, mô hình ngôn ngữ lớn Llama 2 do Meta đưa ra có nhiều khả năng bị bọn tội phạm có kinh nghiệm sử dụng làm công cụ phạm tội vì Llama 2 là mô hình nguồn mở và tất cả các mã đều có thể được xem và sử dụng. Các chuyên gia cho rằng điều này mở ra nhiều cơ hội hơn cho bọn tội phạm lấy mô hình này cho mình rồi sử dụng để phá hoại an ninh mạng. Ví dụ: người ta có thể xây dựng các công cụ AI độc hại trên đó. Forbes đã yêu cầu Meta bình luận nhưng không nhận được phản hồi. Giám đốc điều hành Meta Mark Zuckerberg cho biết vào tháng 7 rằng việc duy trì nguồn mở Llama sẽ cải thiện "sự an toàn và bảo mật của nó vì phần mềm nguồn mở sẽ được xem xét kỹ lưỡng hơn và nhiều người có thể làm việc cùng nhau hơn".
Các công ty phòng chống gian lận cũng đang cố gắng đổi mới nhanh hơn để theo kịp những tiến bộ trong AI và tận dụng nhiều hơn các loại dữ liệu mới để phát hiện những kẻ lừa đảo. Ranjan nói: “Cách bạn gõ, cách bạn đi bộ hoặc cách bạn cầm điện thoại - những đặc điểm hành vi này xác định con người bạn, nhưng dữ liệu này không thể truy cập được ở phạm vi công cộng”. họ nói họ là ai. Người đó, AI nhúng sẽ đóng vai trò lớn." Nói cách khác, chúng ta cần AI để bắt tội phạm sử dụng AI để lừa đảo.
Năm mẹo để bảo vệ bạn khỏi gian lận AI: