Trọng lượng mô hình mở bị cáo buộc khiến AI vượt khỏi tầm kiểm soát, Meta bị phản đối bằng các biểu ngữ LeCun: Cộng đồng AI nguồn mở đang phát triển mạnh mẽ.

AI, đặc biệt là mã nguồn mở và mã nguồn đóng trong thời đại mô hình lớn, đều có những ưu điểm và nhược điểm, quan trọng là trong quá trình sử dụng nó làm tốt công việc như thế nào.

Nguồn hình ảnh: Được tạo bởi AI không giới hạn

Mọi người luôn bị chia rẽ trong việc lựa chọn giữa nguồn mở và nguồn đóng trong lĩnh vực AI, tuy nhiên, trong thời đại của những mô hình lớn, thế lực mạnh mẽ của nguồn mở đã âm thầm trỗi dậy. Theo một tài liệu nội bộ bị rò rỉ trước đây bởi Google, xung quanh các mô hình nguồn mở như LLaMA của Meta, toàn bộ cộng đồng đang nhanh chóng xây dựng các mô hình tương tự như OpenAI và khả năng mô hình lớn của Google.

Không còn nghi ngờ gì nữa, Meta chính là cốt lõi tuyệt đối của thế giới nguồn mở, với những nỗ lực liên tục về nguồn mở như việc phát hành Llama 2 gần đây. Tuy nhiên cái gì tốt cũng sẽ bị gió thổi bay, dạo gần đây Meta gặp rắc rối vì mã nguồn mở.

Bên ngoài văn phòng của Meta ở San Francisco, một nhóm người biểu tình cầm biểu ngữ đã tụ tập để phản đối chiến lược phát hành công khai các mô hình AI của Meta, cho rằng những mô hình được phát hành này đã gây ra "sự phổ biến không thể đảo ngược" của các công nghệ có khả năng không an toàn. Một số người phản đối thậm chí còn so sánh những mô hình lớn do Meta tung ra với "vũ khí hủy diệt hàng loạt".

Những người biểu tình này tự gọi mình là "những công dân có liên quan" và được lãnh đạo bởi Holly Elmore. Theo thông tin LinkedIn, cô là người ủng hộ độc lập cho phong trào AI Pause.

Nguồn ảnh: MISHA GUREVICH

Cô chỉ ra rằng nếu một mô hình được chứng minh là không an toàn thì API có thể bị tắt, chẳng hạn như các mô hình lớn như Google và OpenAI chỉ cho phép người dùng truy cập thông qua API.

Ngược lại, loạt mô hình nguồn mở LLaMA của Meta cung cấp trọng số mô hình cho công chúng, cho phép bất kỳ ai có phần cứng và kiến thức chuyên môn phù hợp có thể tự sao chép và điều chỉnh mô hình. Sau khi trọng lượng mô hình được phát hành, công ty xuất bản không còn bất kỳ phương tiện nào để kiểm soát cách sử dụng AI.

Theo Holly Elmore, việc phát hành trọng lượng mô hình là một chiến lược nguy hiểm, bất kỳ ai cũng có thể sửa đổi mô hình và những mô hình này không thể bị thu hồi. "Mô hình càng mạnh thì chiến lược càng nguy hiểm."

So với nguồn mở, các mô hình lớn được truy cập thông qua API thường có nhiều tính năng bảo mật khác nhau, chẳng hạn như lọc phản hồi hoặc đào tạo cụ thể để ngăn chặn việc tạo ra các phản hồi nguy hiểm hoặc mang tính xúc phạm.

Nếu trọng lượng của mô hình được giải phóng, việc đào tạo lại mô hình để nhảy qua các "lan can" này sẽ trở nên dễ dàng hơn nhiều. Điều này giúp việc sử dụng các mô hình nguồn mở này để tạo phần mềm lừa đảo và tiến hành các cuộc tấn công mạng trở nên khả thi hơn.

Nguồn ảnh: MISHA GUREVICH

Bởi vì cô cho rằng một phần của vấn đề nằm ở chỗ "thiếu các biện pháp an toàn để phát hành mô hình" và cần phải có cách tốt hơn để đảm bảo an toàn cho mô hình.

Meta vẫn chưa bình luận về điều này. Tuy nhiên, Yann LeCun, nhà khoa học AI trưởng của Meta, dường như đã phản ứng với tuyên bố rằng "AI nguồn mở phải bị cấm" và vạch trần tình hình nghiêm trọng của cộng đồng doanh nhân AI nguồn mở ở Paris.

Có nhiều người không đồng tình với Holly Elmore, người cho rằng chiến lược mở để phát triển AI là cách duy nhất để đảm bảo niềm tin vào công nghệ.

Một số cư dân mạng cho rằng nguồn mở có những ưu và nhược điểm, nó có thể cho phép mọi người đạt được sự minh bạch cao hơn và tăng cường đổi mới, nhưng nó cũng sẽ phải đối mặt với nguy cơ bị các tác nhân độc hại sử dụng sai mục đích (chẳng hạn như mã).

Đúng như dự đoán, OpenAI một lần nữa bị chế giễu: "Nó nên quay lại nguồn mở".

Có nhiều người lo lắng về nguồn mở

Peter S. Park, nhà nghiên cứu sau tiến sĩ về bảo mật AI tại MIT, cho biết: “Việc phát hành rộng rãi các mô hình AI tiên tiến sẽ đặc biệt gặp vấn đề trong tương lai vì việc ngăn chặn việc lạm dụng các mô hình AI về cơ bản là không thể”.

Tuy nhiên, Stella Biderman, giám đốc điều hành của EleutherAI, một tổ chức nghiên cứu trí tuệ nhân tạo phi lợi nhuận, cho biết: "Cho đến nay, có rất ít bằng chứng cho thấy các mô hình nguồn mở gây ra bất kỳ tác hại cụ thể nào. Không rõ liệu việc đơn giản đặt một mô hình đằng sau API có giải quyết được vấn đề hay không." vấn đề. Câu hỏi bảo mật."

Biderman tin rằng: "Các yếu tố cơ bản của việc xây dựng LLM đã được tiết lộ trong các tài liệu nghiên cứu miễn phí và bất kỳ ai trên thế giới đều có thể đọc tài liệu trên giấy để phát triển mô hình của riêng mình."

Bà nói thêm: "Việc khuyến khích các công ty giữ bí mật chi tiết mô hình có thể gây ra những hậu quả bất lợi nghiêm trọng đối với tính minh bạch, nhận thức cộng đồng và sự phát triển khoa học của nghiên cứu trong lĩnh vực này, đặc biệt là đối với các nhà nghiên cứu độc lập."

Mặc dù mọi người đã thảo luận về tác động của nguồn mở nhưng vẫn chưa rõ liệu cách tiếp cận của Meta có thực sự đủ mở và có thể tận dụng được nguồn mở hay không.

Stefano Maffulli, giám đốc điều hành của Sáng kiến nguồn mở (OSI), cho biết: "Khái niệm về AI nguồn mở chưa được xác định đúng đắn. Các tổ chức khác nhau sử dụng thuật ngữ này để chỉ những thứ khác nhau - biểu thị các cấp độ khác nhau của 'thứ gì đó có sẵn công khai', Điều đó sẽ khiến mọi người bối rối."

Maffulli chỉ ra rằng đối với phần mềm nguồn mở, vấn đề then chốt là liệu mã nguồn có sẵn sàng công khai và có thể tái sản xuất cho bất kỳ mục đích nào hay không. Tuy nhiên, để tái tạo mô hình AI, bạn có thể phải chia sẻ dữ liệu huấn luyện, phương pháp thu thập dữ liệu, phần mềm huấn luyện, trọng số mô hình, mã suy luận, v.v. Trong số đó, điều quan trọng nhất là dữ liệu đào tạo có thể có vấn đề về quyền riêng tư và bản quyền.

OSI đã nghiên cứu định nghĩa chính xác về "AI nguồn mở" kể từ năm ngoái và có thể sẽ sớm phát hành bản dự thảo trong vài tuần tới. Nhưng dù thế nào đi nữa, anh ấy tin rằng nguồn mở rất quan trọng đối với sự phát triển của AI. Ông nói: “Nếu AI không phải là nguồn mở, chúng ta không thể có AI đáng tin cậy và có trách nhiệm”.

Trong tương lai, sự khác biệt giữa nguồn mở và nguồn đóng sẽ tiếp tục tồn tại, nhưng nguồn mở là không thể ngăn cản.

Link gốc:

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)