Đối thoại với Zhu Jun, Viện Trí tuệ nhân tạo, Đại học Thanh Hoa: Những rủi ro bảo mật nào ẩn chứa trong mô hình AI phổ biến?

Văn bản: Li Haidan, Tencent Technology

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Con người đã tạo ra AI, nhưng AI cũng đang định hình lại thế giới chúng ta đang sống. Với sự bùng nổ của công nghệ mô hình ngôn ngữ lớn, AI đã bắt đầu hòa nhập hơn nữa vào cuộc sống của chúng ta và con người cần xem xét và thực hiện các biện pháp bảo mật cần thiết trong giai đoạn đầu phát triển để tránh những rủi ro tiềm ẩn.

Các vấn đề an ninh mạng mà AI gặp phải có thể thấy ở khắp mọi nơi. Khi Tencent Technology phỏng vấn Zhu Jun, phó chủ nhiệm Viện Trí tuệ Nhân tạo của Đại học Thanh Hoa, nhà khoa học trưởng của Viện Nghiên cứu Trí tuệ Nhân tạo Zhiyuan Bắc Kinh và Ruilai Intelligence, ông nói ** "Trên thực tế, không có hệ thống mạng nào luôn an toàn và không thể phá vỡ trên thế giới. Nếu chi phí không được xem xét, bọn tội phạm sẽ sử dụng nhiều phương pháp khác nhau để tấn công hệ thống và không thể chống lại nó. **

Trong hơn 10 năm, Zhu Jun đã cam kết giải quyết vấn đề bảo mật trí tuệ nhân tạo. Ông đã đột phá lý thuyết cơ bản Bayesian cổ điển và các công nghệ chính, đề xuất một thuật toán hiệu quả cho mô hình khuếch tán và ươm tạo "chuyên ngành và mới" cấp quốc gia. doanh nghiệp khổng lồ nhỏ" thông qua việc chuyển đổi thành tựu, Đặt nền tảng vững chắc cho sự phát triển của trí tuệ nhân tạo an toàn và đáng tin cậy.

Không thể bỏ qua những rủi ro của bản thân AI. Trí tuệ nhân tạo được ban cho khả năng học hỏi và suy luận mạnh mẽ, nhưng khả năng này cũng dẫn đến sự phụ thuộc cao của hệ thống AI vào dữ liệu, điều này có thể phản ánh sự thiên vị của các nguồn dữ liệu trong quá trình đưa ra quyết định và đề xuất. về đạo đức và công lý của AI.

Khi AI rơi vào khủng hoảng an ninh niềm tin, chúng ta nên ứng phó thế nào? Khi ứng dụng tương tác giữa AI và con người ngày càng phổ biến, chúng ta nên làm thế nào để ngăn chặn những nguy cơ tiềm ẩn về an toàn? Trong cuộc đối thoại này, Zhu Jun đã nói về các phương pháp phòng thủ cụ thể để cải thiện tính bảo mật và độ tin cậy của AI. Chúng ta cần chú ý khám phá những tác động về mặt đạo đức và xã hội đối với sự an toàn của AI, đồng thời tránh bị dẫn đến một tương lai không xác định và không được kiểm soát.

Sau đây là nội dung chính của văn bản, có xóa và điều chỉnh với điều kiện không thay đổi mong muốn của bạn:

Không có hệ thống mạng nào luôn an toàn

**Tencent Technology: Ông đã và đang thúc đẩy nghiên cứu trong lĩnh vực trí tuệ nhân tạo chống lại bảo mật, ứng dụng công nghệ AI hiện nay sẽ mang lại những vấn đề bảo mật nào? Chúng ta nên xác định những vấn đề bảo mật này như thế nào? **

**Zhu Jun:**Trí tuệ nhân tạo bao gồm một số yếu tố chính, chẳng hạn như dữ liệu, mô hình thuật toán và lớp ứng dụng. Trong mỗi yếu tố, chúng ta cần xử lý các vấn đề bảo mật khác nhau trong đó.

Ở cấp độ dữ liệu, chúng ta cần chú ý đến các vấn đề bảo mật như nhiễm độc dữ liệu, rò rỉ dữ liệu, quyền riêng tư của người dùng và bảo vệ dữ liệu bí mật cốt lõi; ở cấp độ mô hình, chúng ta cần xử lý các vấn đề bảo mật như thuật toán đối đầu. Ví dụ: khi nhận dạng khuôn mặt được sử dụng để mở khóa, kẻ tấn công có thể mở khóa hệ thống xác minh của điện thoại di động mục tiêu thông qua một cặp kính chống được chế tạo đặc biệt (tức là "mẫu đối thủ"), gây ra rủi ro. Ngoài ra, nếu mô hình bị cài backdoor độc hại thì tính bảo mật của mô hình cũng sẽ bị đe dọa, ở cấp độ ứng dụng, vấn đề bảo mật của trí tuệ nhân tạo cũng ngày càng trở nên nổi cộm. Ví dụ: tổng hợp sâu, AIGC và các công cụ khác được bọn tội phạm sử dụng để tạo nội dung sai lệch và tham gia vào các mục đích bất hợp pháp như gian lận và lừa dối. Đây là tất cả các vấn đề bảo mật mà trí tuệ nhân tạo phải đối mặt trong quá trình sử dụng hoặc phát triển thực tế.

Để có giải pháp và biện pháp đối phó, chúng ta cần sử dụng các thuật toán nâng cao hơn để tự động nhận dạng các nội dung này, đây là một vấn đề nóng và khó trong lĩnh vực trí tuệ nhân tạo. Tuy nhiên, công nghệ này giống như mối quan hệ giữa "giáo và khiên", và sự phát triển của công nghệ thế hệ sẽ thúc đẩy sự xuất hiện của các công nghệ phát hiện và phòng thủ tương ứng. Đồng thời, các công nghệ về thế hệ và tấn công không ngừng phát triển. Do bản chất của công nghệ, không có hệ thống nào luôn an toàn và không thể bị phá vỡ. Nếu không tính đến chi phí, bọn tội phạm sẽ sử dụng nhiều phương pháp khác nhau để tấn công hệ thống mà khó có thể đề phòng.

Do đó, từ góc độ công nghệ, ** chúng ta cần giải quyết nó theo hình thức "AI nhận ra AI". Nhưng phòng thủ thực sự khó hơn tấn công. Hiện tại, chúng tôi đang tìm kiếm các cơ chế khác nhau để cải thiện khả năng bảo vệ của mô hình và thực hiện các biện pháp bảo vệ khác nhau khi mô hình được sử dụng và triển khai. Ví dụ: trong hệ thống nhận dạng khuôn mặt, chúng tôi triển khai tường lửa nhận dạng khuôn mặt để phát hiện và lọc các mẫu đáng ngờ hoặc chống tấn công trước khi các mẫu đó vào liên kết nhận dạng cuối cùng, nhằm đạt được mục đích bảo vệ hệ thống. Hiện tại, công nghệ như vậy đã được triển khai trong ngân hàng và các ngành công nghiệp khác.

**Tencent Technology: Ông đã đề cập rằng bất kỳ hệ thống mạng nào cũng có lỗ hổng bảo mật, ChatGPT hiện tại đã tạo ra một làn sóng bùng nổ trong các ứng dụng ở nước ngoài, nó đã đạt được tương tác tốt, sẽ có những rủi ro gì? **

Zhu Jun: Hiện tại, các mô hình ngôn ngữ lớn như ChatGPT đang trong quá trình phát triển nhanh chóng nhưng đồng thời cũng tiềm ẩn những rủi ro - chẳng hạn như sẽ xảy ra một số "cuộc tấn công tiêm chích". Từ quan điểm thuật toán, nếu ai đó đưa vào các từ hoặc ký hiệu cụ thể với động cơ thầm kín, điều đó có thể gây ra sự nhầm lẫn logic và lỗi đầu ra trong mô hình lớn.

Trong một hệ thống đối thoại nhiều vòng, rất khó để chống lại các cuộc tấn công tiêm nhiễm. Tin tặc có thể thực hiện các cuộc tấn công tiêm chích theo nhiều cách khác nhau và do công nghệ hiểu bối cảnh mô hình quy mô lớn, hiệu ứng tấn công sẽ bị trì hoãn, đây là một thách thức mới đối với việc phát hiện và phòng thủ thuật toán. Về vấn đề này, chúng ta cần sử dụng một phương pháp tương tự như học tăng cường để đảo ngược thuật toán nhằm phát hiện và bảo vệ trước những từ có thể bị chèn ác ý. **Bạn chỉ có thể yên tâm sử dụng hệ thống nếu đảm bảo rằng hệ thống không bị tiêm nhiễm mã độc trong quá trình đào tạo hoặc không bị cài đặt cửa hậu và các lỗ hổng khác.

Từ góc độ cấp độ ứng dụng, cũng có thể có một số rủi ro do sử dụng hệ thống đối thoại với mục đích xấu, chẳng hạn như tin tặc cố gắng vượt qua các biện pháp bảo vệ chống tiêm chích để tạo ra nội dung chất lượng thấp hoặc xấu, bao gồm cả thông tin bất hợp pháp liên quan đến nội dung khiêu dâm và bạo lực , sẽ trở thành một phần của quá trình tiếp theo. Các vấn đề cần phát hiện và giải quyết độc lập.

**Tencent Technology: Chúng ta vừa nói về các vấn đề bảo mật của GPT, hãy cùng tìm hiểu kỹ hơn: khả năng bảo vệ an ninh của máy chủ GPT và các mô hình lớn khác như thế nào, và nó có thể bị tin tặc tấn công không? **

Zhu Jun: Về lý thuyết thì hoàn toàn có thể. Vì là một hệ thống thông tin lớn nên hệ thống nào cũng sẽ có sơ hở, vì vậy trong quá trình xây dựng hệ thống chúng ta cần triển khai trước nhiều phương pháp bảo vệ nhất có thể để nâng cao tính bảo mật cho hệ thống. Gần đây, chúng tôi cũng đã thấy các trường hợp liên quan: một số kẻ tấn công sử dụng ChatGPT để tạo mã tấn công tự động, cho phép nó tìm lỗ hổng trong hệ thống mục tiêu hiệu quả hơn và thậm chí còn khai thác thêm lỗ hổng để khởi động các cuộc tấn công, vì vậy các vấn đề bảo mật sẽ tiếp tục tồn tại.

Con người không thể xác định và đo lường chính xác mức độ thông minh của AI

**Công nghệ Tencent: Ngoài những nguy cơ tiềm ẩn từ các cuộc tấn công của tin tặc, chúng tôi cũng lo lắng về rủi ro bảo mật của chính AI. Trước hết, hãy tập trung vào một chủ đề mà mọi người hiện đang thảo luận - bạn có nghĩ AI sẽ tạo ra ý thức không? **

** Zhu Jun: Quan điểm cá nhân của tôi nghiêng về việc cho rằng hiệu suất hiện tại của "ý thức" trong trí tuệ nhân tạo không rõ ràng lắm, bởi vì chúng ta không thể định nghĩa và đo lường chính xác ý thức. ** Do đó, khi quan sát hiệu suất của mô hình ngôn ngữ, chúng ta sẽ thấy rằng mô hình lớn vẫn còn các vấn đề như lỗi thực tế. Mặc dù một số lỗi đọc trôi chảy, nhưng khi kiểm tra kỹ hơn, chúng không thực tế hoặc logic. Đây là một trong nhiều vấn đề của mô hình, đó là mức độ cụ thể của ý thức mà nó chưa được đánh giá đầy đủ về mặt định lượng.

Các mô hình ngôn ngữ là những người học hiệu quả vì chúng biết nhiều về ngữ liệu và văn bản hơn bất kỳ người nào trên thế giới. Ví dụ: một mô hình có thể có quyền truy cập gần như tất cả thông tin có sẵn trên Internet, so với nguồn thông tin hạn chế mà mỗi chúng ta có quyền truy cập.

Từ góc độ linh hoạt, AI chắc chắn tốt hơn bất kỳ người nào. Tuy nhiên, ở một số khía cạnh, hiệu suất của mô hình không thể đạt đến trình độ của con người. Do đó, chúng ta nên xem xét một mô hình từ góc độ phát triển công nghệ thực tế, bao gồm AGI và các khía cạnh khác được mọi người thảo luận. Cá nhân tôi cho rằng trình độ công nghệ hiện nay chưa đến mức mất kiểm soát hoặc chỉ phát triển nhờ sự điều khiển của chính robot.

Có thể nói rằng các mô hình máy học quy mô lớn có thể sử dụng các mạng phức tạp như học sâu để xử lý dữ liệu và dựa trên một số nhận thức của con người về kiến trúc và thiết kế. Nhưng nhìn chung, có sự khác biệt rất lớn giữa các mô hình mạng thần kinh nhân tạo này và các hệ thống sinh học thực, từ quy mô đến cấu trúc. Vì vậy, trên thực tế, chúng ta hiện chưa thể đánh giá rõ ràng mức độ thông minh của các hệ thống trí tuệ nhân tạo, hay đánh giá liệu nó có khả năng nhận thức như trí tuệ hay không.

**Công nghệ Tencent: Gần đây, một số thương gia đã đưa ra khái niệm "đồng hành AI" - mọi người có thể yêu thích AI và họ cần phải trả tiền. Bạn có nghĩ rằng AI có thể hiểu được cảm xúc của con người? Những rủi ro bảo mật nào tồn tại trong quá trình tương tác với các đối tác ảo? **

Zhu Jun: Điện toán tình cảm luôn là một chủ đề kinh điển trong lĩnh vực trí tuệ nhân tạo, về mặt cảm xúc, công nghệ trí tuệ nhân tạo có thể mô phỏng một nhân vật và thiết lập trạng thái cảm xúc hoặc tâm lý của nhân vật đó. Tuy nhiên, từ quan điểm kỹ thuật, vẫn còn nhiều vấn đề và thách thức trong lĩnh vực này.

Rất khó đạt được trình độ giao tiếp chân chính của con người. Ví dụ, ngay cả khi chúng ta trò chuyện trực tiếp hoặc sử dụng cùng một ngôn ngữ để đối thoại, thật khó để thực sự hiểu được cảm xúc hoặc hoạt động tinh thần của nhau, bởi vì mỗi cá nhân phản ứng với cùng một thông tin đầu vào theo hàng nghìn cách. Các mô hình lớn mà chúng tôi sử dụng hiện nay về cơ bản là mô hình hóa quá trình này, nhưng tất cả các mô hình hóa đều yêu cầu các giả định đơn giản hóa và lý tưởng hóa. Người ta đặt câu hỏi liệu những giả định này có áp dụng cho tất cả mọi người hay liệu chúng có phù hợp với thực tế của mỗi cá nhân hay không. Chúng tôi khó có thể diễn đạt chính xác những cảm xúc phức tạp của mọi người bằng một mô hình đơn giản.

Mô hình này có thể liên quan đến nhiều khía cạnh khác nhau như các vấn đề xã hội, đạo đức và luân lý, đồng thời tiềm ẩn nhiều vấn đề cần giải quyết. Mặc dù không có nhiều ngưỡng để triển khai kỹ thuật và mô hình này đã xuất hiện ở nước ngoài. Tuy nhiên, chúng ta cần suy nghĩ sâu sắc về tác động của mô hình này—ví dụ, một số người trẻ tuổi có thể ít sẵn sàng dành năng lượng cho tình yêu hoặc hôn nhân thực sự, v.v. Những điều này có thể gây ra những vấn đề tiềm ẩn cho sự ổn định xã hội.

Ngoài ra, chúng ta cần chú ý xem liệu các sản phẩm trí tuệ nhân tạo đó có thiên vị hay hướng dẫn có mục đích chống lại một số cá nhân nhất định hay không, điều này sẽ mang lại rủi ro lớn. Nếu chúng ta tương tác với robot hàng ngày, thông tin thu được sẽ tự nhiên được robot hướng dẫn, điều này có thể ảnh hưởng đến giá trị cá nhân, hoặc kiểm soát cảm xúc và hành vi cá nhân. Về lâu dài, điều này có thể ảnh hưởng đến mối quan hệ xã hội giữa con người với nhau và gây ra những thay đổi trong hành vi của toàn xã hội. Nhưng đây không phải là những vấn đề có thể được giải quyết hoàn toàn bằng công nghệ. Nói chung, so với các quốc gia khác, đất nước của tôi sẽ thận trọng hơn khi sử dụng các công nghệ mới và chúng tôi sẽ đưa ra cảnh báo sớm về những rủi ro có thể xảy ra và thực hiện một số biện pháp phòng ngừa.

Định hình AI an toàn: Coi những Người mẫu Tốt nhất là "Người cố vấn"

**Tencent Technology: Nếu có lỗi trong AI, từ góc độ kỹ thuật, chúng tôi có thể làm gì để sửa lỗi trong mô hình lớn? **

**Zhu Jun:**Bởi vì dữ liệu đào tạo và trình độ kỹ thuật khác nhau, ví dụ, chúng tôi sử dụng cùng một câu hỏi để hỏi các mô hình lớn khác nhau, kết quả họ cung cấp có thể khác nhau, một số kết quả là tốt, nhưng một số là độc hại hoặc xấu kết quả. Do đó, chúng ta cần chuẩn hóa và nâng cao chất lượng cũng như khả năng kiểm soát của các mô hình này.

Một số mô hình lớn thường thực hiện rất nhiều huấn luyện về sự liên kết và đối thủ. Ví dụ: trước khi GPT-4 ra đời, các chuyên gia trong các lĩnh vực khác nhau đã đặt câu hỏi từ các góc độ khác nhau để kiểm tra tính chính xác của mô hình để xem liệu hệ thống có tạo ra kết quả không tuân thủ hoặc độc hại hay không, đồng thời cố gắng điều chỉnh và điều chỉnh. Tuy nhiên, vẫn còn nhiều mô hình (bao gồm nhiều mô hình nguồn mở) chưa trải qua quá trình kiểm tra hoặc đào tạo đối thủ nghiêm ngặt như vậy, do đó sẽ có nhiều rủi ro bảo mật khác nhau.

Một lộ trình kỹ thuật đáng để thử là coi một trong những mô hình tốt nhất là "người cố vấn", sau đó buộc các mô hình khác bắt chước hành vi của mô hình này một cách hiệu quả và tiết kiệm. Tất nhiên, có nhiều khía cạnh công việc khác, chẳng hạn như công việc quy chuẩn hóa và căn chỉnh cho từng mô hình cụ thể theo yêu cầu quy chuẩn của các quốc gia khác nhau.

Mặc dù chúng tôi mong đợi các mô hình này luôn tạo ra kết quả tuân thủ thông số kỹ thuật khi được sử dụng, xác suất rủi ro không bao giờ giảm xuống bằng không. ** Ngoài ra, khi sử dụng chúng ta cũng cần quan tâm đến đạo đức, quy phạm pháp luật, v.v... cần có sự quản lý, điều tiết chung của các ngành, lĩnh vực khác nhau để mô hình phục vụ con người tốt hơn.

**Công nghệ Tencent: Chúng tôi vừa đề cập rằng thông qua đào tạo liên tục để sửa và giảm tỷ lệ lỗi của các mô hình lớn, chúng tôi nên đánh giá độ tin cậy của nó như thế nào? Bạn đã từng tham gia sâu vào lĩnh vực Bayesian deep learning, theo bạn, làm thế nào để xây dựng và tối ưu hóa các mô hình nhằm nâng cao độ chính xác và độ tin cậy của các dự đoán? **

**Zhu Jun: **Về cơ bản, ngành này có cùng một mục tiêu về độ chính xác, thường được đo lường bằng các chỉ số khách quan và các chỉ số cụ thể liên quan đến các nhiệm vụ cụ thể được thực hiện. Về mặt phân loại và nhận dạng, độ chính xác nhận dạng cuối cùng sẽ được sử dụng để hướng dẫn đào tạo mô hình.

Đối với các vấn đề không chắc chắn, chẳng hạn như mạng lưới thần kinh, chúng tôi nhận thấy rằng trong nhiều trường hợp, các dự đoán của nó sẽ quá tự tin và lạc quan. Ví dụ: đầu ra của một số kết quả ban đầu là một dự đoán mơ hồ hoặc không chắc chắn, nhưng nó sẽ cho bạn biết kết quả dự đoán với sự tự tin thái quá, mà chúng tôi gọi là "sự tự tin thái quá".

Đối với hiện tượng hoặc vấn đề này, các kỹ thuật học sâu sử dụng phương pháp Bayes có thể mô tả rõ hơn sự không chắc chắn. Nó chủ yếu có thể được xem xét từ nhiều khía cạnh, chẳng hạn như các yếu tố không chắc chắn có thể tồn tại ở đầu vào và các yếu tố không chắc chắn có thể tồn tại ở cuối mô hình và mang lại sự tự tin phù hợp hơn với tình hình thực tế. Cách tiếp cận Bayesian này đáng tin cậy hơn mạng lưới thần kinh.

** Công nghệ Tencent: Cấu trúc mạng trong thế giới thực thường rất phức tạp, bao gồm nhiều cấp độ, đa chiều, thay đổi động và các đặc điểm khác, điều này sẽ mang lại những thách thức lớn cho việc thiết lập và tối ưu hóa mô hình xác suất khuếch tán. Nhóm bạn lãnh đạo là một trong những nhóm tham gia nghiên cứu lý thuyết và thuật toán mô hình xác suất khuếch tán sớm nhất trên thế giới. Nhóm của bạn loại bỏ nhiễu và độ không đảm bảo dữ liệu trong xây dựng mô hình như thế nào để cải thiện độ bền và độ tin cậy của mô hình? **

Zhu Jun: Mô hình khuếch tán là một mô hình tổng quát, có hai quá trình khuếch tán thuận và khuếch tán ngược. Khuếch tán chuyển tiếp biến một hình ảnh thành một hình ảnh nhiễu Gaussian hoàn toàn ngẫu nhiên bằng cách thêm nhiễu dần dần. Sự khuếch tán ngược bắt đầu từ một phân phối hầu như không có cấu trúc, dần dần khử nhiễu và hội tụ thành một phân phối có thể mô tả dữ liệu thực. Các mẫu mới có thể được tạo từ phân phối này, chẳng hạn như tạo văn bản, hình ảnh và video, hiện đang được nghiên cứu rộng rãi.

Các mô hình khuếch tán là một trong những kỹ thuật quan trọng nhất trong lĩnh vực tổng quát. Về độ mạnh mẽ, ý tưởng về các mô hình khuếch tán tương tự như các ví dụ đối nghịch. Các ví dụ đối thủ đạt được mục đích tấn công bằng cách thêm tiếng ồn được tối ưu hóa theo thuật toán trong quá trình tạo. Đổi lại, chúng ta có thể tối ưu hóa độ lớn và hướng của nhiễu bằng cách dần dần tìm ra sự phân bố trong quá trình khuếch tán ngược để cải thiện độ bền của mô hình. Phương pháp này cũng có thể được áp dụng cho việc tạo dữ liệu nhiễu để cải thiện độ tin cậy và độ chính xác của mô hình.

**Công nghệ Tencent: Làm thế nào chúng ta có thể cải thiện độ chính xác của AI trong ứng dụng của Vincent theo các hướng khác? Tôi lo ngại về thuật toán 3D Wensheng ProlificDreamer mới do nhóm của bạn đề xuất gần đây, thuật toán này có thể tạo nội dung 3D chất lượng cực cao mà không cần bất kỳ dữ liệu 3D nào. Nhóm của bạn xử lý sự đa dạng và mơ hồ về ngữ nghĩa như thế nào để tạo ra nội dung chính xác hơn? Mô hình 3D? **

Zhu Jun: So với các phương pháp 3D truyền thống, ngành này thường sử dụng mô hình tổng quát được đào tạo trước 2D (chẳng hạn như mô hình khuếch tán) để đào tạo trên cơ sở dữ liệu hình ảnh. Khi thực hiện tạo 3D, chúng ta cần ánh xạ hình ảnh 2D đã tạo lên mô hình 3D, yêu cầu một bước trung gian gọi là "chưng cất". Vì mô hình 3D có cấu trúc không gian nên chúng ta cần xem xét các thuộc tính 3D của đối tượng. Do đó, chúng ta cần quan sát các đối tượng từ nhiều góc độ khác nhau và hiển thị hình ảnh 2D tương ứng, sau đó căn chỉnh chúng theo mô hình được đào tạo trước để có thể tạo nội dung 3D, v.v. Tuy nhiên, cách làm này cũng có một số hạn chế. Ví dụ: kết quả mà nó tạo ra thường quá bão hòa hoặc quá mịn, thiếu thông tin như chi tiết và kết cấu.

Để giải quyết vấn đề này, chúng ta cần khám phá các công nghệ cấp thấp hơn. Chúng tôi thấy rằng có một số khó khăn cố hữu trong việc sử dụng thuật toán chưng cất để tìm một mô hình 3D duy nhất, khó khăn này cần được khắc phục từ các nguyên tắc cơ bản. Các thuật toán hiện tại đều tìm kiếm một loại cực trị nào đó trong hàm mục tiêu, tương tự như "thuật toán tham lam (Greedy algorithm)" thì nó sẽ chỉ tìm lời giải tối ưu, để đạt được mục đích này, công việc hiện tại thay đổi hàm mục tiêu để nó cao hơn. ở một số khu vực, trung bình hơn ở các khu vực khác, phương pháp điều chỉnh hàm mục tiêu này có thể nhanh chóng tìm ra giải pháp cuối cùng.

Để khắc phục những khó khăn của các phương pháp trên, chúng tôi định dạng lại vấn đề tạo văn bản thành 3D dưới dạng lấy mẫu từ một số phân phối mà mô hình 3D có thể tuân theo, sau đó hiển thị và căn chỉnh nó với mô hình 2D được đào tạo trước. **Ưu điểm của phương pháp lấy mẫu này là bản thân mô hình 2D là một mô hình xác suất và thông tin mô tả phong phú hơn so với tối ưu hóa tham lam; vì lý do này, chúng tôi đã tạo ra một thuật toán chưng cất biến thể mới và sử dụng nó về cơ bản giống nhau Rất nhiều chi tiết và các cảnh 3D phức tạp, bao gồm nội dung có độ phân giải cao, được tạo ra trong một khoảng thời gian ngắn.

Điểm mấu chốt trong phương pháp của chúng tôi là nó làm giảm hoặc loại bỏ hoàn toàn sự phụ thuộc vào dữ liệu đào tạo 3D và cải thiện đáng kể chất lượng tạo. Gần đây, tôi đã trao đổi với các học viên làm đồ họa, và họ cũng cảm thấy rằng hiệu ứng này khá tuyệt vời. Hãy cho chúng tôi thấy tiềm năng to lớn của việc có thể tạo ra hình ảnh 3D chất lượng cao.

Đối với việc xử lý sự mơ hồ. Đối với cùng một kiểu nhập văn bản, những người khác nhau có thể có cách hiểu khác nhau, ví dụ: từ "Apple" có thể đề cập đến Apple, Apple Inc. hoặc các sản phẩm của họ. Trong mô hình của chúng tôi, sự mơ hồ được giải quyết bằng cách sử dụng phương pháp lấy mẫu dựa trên xác suất để tạo ra nhiều kết quả có thể xảy ra. ** Về lâu dài, tính năng định hướng yêu cầu nhiều gợi ý và căn chỉnh hơn để cải thiện khả năng kiểm soát và độ chính xác, chẳng hạn như căn chỉnh văn bản và hình ảnh hoặc dữ liệu phương thức khác. **Trong các lĩnh vực ngôn ngữ và đa phương thức, ý nghĩa cơ bản liên quan đến ngữ cảnh liên quan.

Hiện tại, chúng tôi đang làm việc với khách hàng trong các ngành khác nhau để cải thiện hơn nữa công nghệ tạo 3D của chúng tôi và làm cho nó hoàn thiện hơn. Trong lĩnh vực 3D, tài sản 3D chất lượng cao có giá trị cao.Ví dụ: trong các tình huống tạo tài sản trò chơi, các công ty truyền thống thường sử dụng các phương pháp truyền thống như hình học hoặc đồ họa để xây dựng và duy trì thư viện tài sản 3D, điều này đòi hỏi đầu tư nhiều thời gian. Công nghệ của chúng tôi Nó có thể cải thiện đáng kể hiệu quả sáng tạo và giảm chi phí thời gian.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)