Вага відкритих моделей звинувачують у тому, що штучний інтелект виходить з-під контролю Meta була протестована плакатами LeCun: Спільнота штучного інтелекту з відкритим кодом у самому розпалі.
ШІ, особливо з відкритим і закритим кодом в епоху великих моделей, має переваги і недоліки.Важливо те, як добре працювати в процесі його використання.
Джерело зображення: створено Unbounded AI
Люди завжди були розділені щодо вибору між відкритим кодом і закритим кодом у сфері штучного інтелекту. Проте в еру великих моделей тихо з’явилася могутня сила відкритого коду. Згідно з внутрішнім документом, який раніше злив Google, навколо моделей з відкритим кодом, таких як LLaMA від Meta, уся спільнота швидко створює моделі, подібні до OpenAI, і широкі можливості моделювання Google.
Немає сумніву, що Meta є абсолютним ядром світу з відкритим кодом із продовженням роботи з відкритим кодом, як-от нещодавній випуск Llama 2. Проте все хороше знищить вітер Останнім часом у Мети були «проблеми» через відкритий код.
Біля офісів Meta у Сан-Франциско зібралася група протестувальників із плакатами, які протестували проти стратегії Meta щодо публічного випуску моделей штучного інтелекту, стверджуючи, що ці випущені моделі спричинили «незворотне поширення» потенційно небезпечних технологій. Деякі протестувальники навіть порівняли великі моделі, випущені Meta, зі «зброєю масового знищення».
Ці протестувальники називають себе «стурбованими громадянами» і очолюються Холлі Елмор. За інформацією LinkedIn, вона є незалежним прихильником руху AI Pause.
Джерело фото: МІША ГУРЕВИЧ
Вона зазначила, що якщо модель виявиться небезпечною, API можна закрити, як-от великі моделі, такі як Google і OpenAI, які дозволяють користувачам отримувати доступ лише через API.
На відміну від цього, серія моделей Meta LLaMA з відкритим вихідним кодом робить вагові коефіцієнти моделей доступними для громадськості, дозволяючи будь-кому, хто має потрібне обладнання та досвід, відтворювати та налаштовувати модель самостійно. Після випуску вагових коефіцієнтів моделі видавництво більше не має жодних засобів контролювати використання ШІ.
За словами Холлі Елмор, оприлюднення ваг моделі є небезпечною стратегією: будь-хто може змінити модель, і ці моделі не можна відкликати. «Чим потужніша модель, тим небезпечніша стратегія».
Порівняно з відкритим вихідним кодом, великі моделі, доступ до яких здійснюється через API, часто мають різні функції безпеки, такі як фільтрація відповідей або спеціальне навчання для запобігання виходу небезпечних або образливих відповідей.
Якщо вага моделі звільняється, стає набагато легше перенавчити модель стрибати через ці «перила». Це робить більш можливим використання цих моделей з відкритим кодом для створення фішингового програмного забезпечення та проведення мережевих атак.
Джерело фото: МІША ГУРЕВИЧ
Оскільки вона вважає, що частина проблеми полягає в «недостатніх заходах безпеки для випуску моделі» і що потрібен кращий спосіб гарантувати безпеку моделі.
Meta ще не прокоментувала це. Однак Янн ЛеКун, головний науковець Meta зі штучного інтелекту, схоже, відповів на заяву про те, що «ШІ з відкритим кодом має бути заборонено», і викрив грандіозне становище підприємницької спільноти ШІ з відкритим кодом у Парижі.
Є багато людей, які не погоджуються з Холлі Елмор, яка вважає, що відкрита стратегія розвитку штучного інтелекту є єдиним способом забезпечити довіру до технологій.
Деякі користувачі мережі сказали, що відкритий вихідний код має плюси та мінуси. Він може дозволити людям отримати більшу прозорість та покращити інновації, але він також зіткнеться з ризиком неправильного використання (наприклад, коду) зловмисниками.
Як і очікувалося, OpenAI знову висміяли: «Він повинен повернутися до відкритого коду».
Є багато людей, які стурбовані відкритим кодом
Пітер С. Парк, докторант із безпеки штучного інтелекту в Массачусетському технологічному інституті, сказав: «Широкий випуск просунутих моделей штучного інтелекту буде особливо проблематичним у майбутньому, оскільки запобігти зловживанню моделями штучного інтелекту практично неможливо».
Проте Стелла Бідерман, виконавчий директор EleutherAI, некомерційної дослідницької організації штучного інтелекту, сказала: «Поки що є мало доказів того, що моделі з відкритим кодом завдають якоїсь конкретної шкоди. Незрозуміло, чи вирішить проблему просте розміщення моделі за API. Проблема. Запитання безпеки."
Бідерман вважає: «Основні елементи побудови LLM були розкриті у безкоштовних наукових статтях, і будь-хто у світі може прочитати паперову літературу, щоб розробити власні моделі».
Вона додала: «Заохочення компаній зберігати в таємниці деталі моделі може мати серйозні негативні наслідки для прозорості досліджень, громадської обізнаності та наукового розвитку в цій галузі, особливо для незалежних дослідників».
Хоча всі вже обговорюють вплив відкритого вихідного коду, все ще незрозуміло, чи підхід Meta дійсно достатньо відкритий і може використовувати переваги відкритого коду.
Стефано Маффуллі, виконавчий директор Open Source Initiative (OSI), сказав: «Концепція штучного інтелекту з відкритим кодом не була належним чином визначена. Різні організації використовують цей термін для позначення різних речей – вказуючи на різні рівні «чогось загальнодоступного», що це заплутає людей».
Маффуллі зазначає, що для програмного забезпечення з відкритим кодом ключовим питанням є те, чи вихідний код є загальнодоступним і чи можна відтворити для будь-яких цілей. Однак, щоб відтворити модель штучного інтелекту, вам, можливо, доведеться поділитися навчальними даними, методами збору даних, навчальним програмним забезпеченням, ваговими коефіцієнтами моделі, кодом висновку тощо. Серед них найважливішим є те, що навчальні дані можуть мати проблеми з конфіденційністю та авторським правом.
OSI працює над точним визначенням «штучного інтелекту з відкритим кодом» з минулого року і, ймовірно, опублікує першу чернетку в найближчі тижні. Але незважаючи ні на що, він вважає, що відкритий код має вирішальне значення для розвитку ШІ. «Якщо штучний інтелект не має відкритого коду, ми не можемо мати надійний і відповідальний штучний інтелект», — сказав він.
У майбутньому відмінності між відкритим кодом і закритим вихідним кодом триватимуть, але відкритий код неможливо зупинити.
Оригінальне посилання:
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Вага відкритих моделей звинувачують у тому, що штучний інтелект виходить з-під контролю Meta була протестована плакатами LeCun: Спільнота штучного інтелекту з відкритим кодом у самому розпалі.
Люди завжди були розділені щодо вибору між відкритим кодом і закритим кодом у сфері штучного інтелекту. Проте в еру великих моделей тихо з’явилася могутня сила відкритого коду. Згідно з внутрішнім документом, який раніше злив Google, навколо моделей з відкритим кодом, таких як LLaMA від Meta, уся спільнота швидко створює моделі, подібні до OpenAI, і широкі можливості моделювання Google.
Немає сумніву, що Meta є абсолютним ядром світу з відкритим кодом із продовженням роботи з відкритим кодом, як-от нещодавній випуск Llama 2. Проте все хороше знищить вітер Останнім часом у Мети були «проблеми» через відкритий код.
Біля офісів Meta у Сан-Франциско зібралася група протестувальників із плакатами, які протестували проти стратегії Meta щодо публічного випуску моделей штучного інтелекту, стверджуючи, що ці випущені моделі спричинили «незворотне поширення» потенційно небезпечних технологій. Деякі протестувальники навіть порівняли великі моделі, випущені Meta, зі «зброєю масового знищення».
Ці протестувальники називають себе «стурбованими громадянами» і очолюються Холлі Елмор. За інформацією LinkedIn, вона є незалежним прихильником руху AI Pause.
Вона зазначила, що якщо модель виявиться небезпечною, API можна закрити, як-от великі моделі, такі як Google і OpenAI, які дозволяють користувачам отримувати доступ лише через API.
На відміну від цього, серія моделей Meta LLaMA з відкритим вихідним кодом робить вагові коефіцієнти моделей доступними для громадськості, дозволяючи будь-кому, хто має потрібне обладнання та досвід, відтворювати та налаштовувати модель самостійно. Після випуску вагових коефіцієнтів моделі видавництво більше не має жодних засобів контролювати використання ШІ.
За словами Холлі Елмор, оприлюднення ваг моделі є небезпечною стратегією: будь-хто може змінити модель, і ці моделі не можна відкликати. «Чим потужніша модель, тим небезпечніша стратегія».
Порівняно з відкритим вихідним кодом, великі моделі, доступ до яких здійснюється через API, часто мають різні функції безпеки, такі як фільтрація відповідей або спеціальне навчання для запобігання виходу небезпечних або образливих відповідей.
Якщо вага моделі звільняється, стає набагато легше перенавчити модель стрибати через ці «перила». Це робить більш можливим використання цих моделей з відкритим кодом для створення фішингового програмного забезпечення та проведення мережевих атак.
Оскільки вона вважає, що частина проблеми полягає в «недостатніх заходах безпеки для випуску моделі» і що потрібен кращий спосіб гарантувати безпеку моделі.
Meta ще не прокоментувала це. Однак Янн ЛеКун, головний науковець Meta зі штучного інтелекту, схоже, відповів на заяву про те, що «ШІ з відкритим кодом має бути заборонено», і викрив грандіозне становище підприємницької спільноти ШІ з відкритим кодом у Парижі.
Деякі користувачі мережі сказали, що відкритий вихідний код має плюси та мінуси. Він може дозволити людям отримати більшу прозорість та покращити інновації, але він також зіткнеться з ризиком неправильного використання (наприклад, коду) зловмисниками.
Пітер С. Парк, докторант із безпеки штучного інтелекту в Массачусетському технологічному інституті, сказав: «Широкий випуск просунутих моделей штучного інтелекту буде особливо проблематичним у майбутньому, оскільки запобігти зловживанню моделями штучного інтелекту практично неможливо».
Проте Стелла Бідерман, виконавчий директор EleutherAI, некомерційної дослідницької організації штучного інтелекту, сказала: «Поки що є мало доказів того, що моделі з відкритим кодом завдають якоїсь конкретної шкоди. Незрозуміло, чи вирішить проблему просте розміщення моделі за API. Проблема. Запитання безпеки."
Бідерман вважає: «Основні елементи побудови LLM були розкриті у безкоштовних наукових статтях, і будь-хто у світі може прочитати паперову літературу, щоб розробити власні моделі».
Вона додала: «Заохочення компаній зберігати в таємниці деталі моделі може мати серйозні негативні наслідки для прозорості досліджень, громадської обізнаності та наукового розвитку в цій галузі, особливо для незалежних дослідників».
Хоча всі вже обговорюють вплив відкритого вихідного коду, все ще незрозуміло, чи підхід Meta дійсно достатньо відкритий і може використовувати переваги відкритого коду.
Стефано Маффуллі, виконавчий директор Open Source Initiative (OSI), сказав: «Концепція штучного інтелекту з відкритим кодом не була належним чином визначена. Різні організації використовують цей термін для позначення різних речей – вказуючи на різні рівні «чогось загальнодоступного», що це заплутає людей».
OSI працює над точним визначенням «штучного інтелекту з відкритим кодом» з минулого року і, ймовірно, опублікує першу чернетку в найближчі тижні. Але незважаючи ні на що, він вважає, що відкритий код має вирішальне значення для розвитку ШІ. «Якщо штучний інтелект не має відкритого коду, ми не можемо мати надійний і відповідальний штучний інтелект», — сказав він.
У майбутньому відмінності між відкритим кодом і закритим вихідним кодом триватимуть, але відкритий код неможливо зупинити.
Оригінальне посилання: