Відтепер кожне слово, яке ви публічно скажете в Інтернеті, може використовуватися Google для навчання ШІ!
Правильно, після фарбування написані роботи також підуть на живлення великих моделей——
Незалежно від того, чи це технічні блоги, код, документи чи будь-що, що ви публічно публікуєте в Інтернеті, це можна кинути в «Google Big Model Blender» навіть з авторським правом.
Лише цього тижня Google оновив свою політику конфіденційності, щоб чітко вказати, що вони залишають за собою право знімати весь публічний вміст в Інтернеті для створення своїх інструментів ШІ.
Користувачі мережі відразу ж вибухнули. Хтось попереджає, що «гугл все сканує»:
Якщо Google може прочитати те, що ви пишете, це означає, що це їхня «власність».
Деякі користувачі мережі мають більш песимістичну думку:
Незабаром усі виробники контенту будуть ШІ.
Отже, що відбувається з цією версією Політики конфіденційності?
Для навчання продуктів ШІ, таких як Bard
Сьогодні все має початися з оновленої політики конфіденційності Google.
У своїй останній політиці конфіденційності Google додала пункт моделі AI щодо «досліджень і розробок»:
Google використовує інформацію для покращення наших послуг і розробки нових продуктів, функцій і технологій на користь наших користувачів і громадськості.
Наприклад, ми використовуємо загальнодоступну інформацію, щоб допомогти навчити моделі штучного інтелекту Google і створити корисні продукти та функції (наприклад, функції Google Translate, Bard і Cloud AI).
Іншими словами, це використання всієї загальнодоступної інформації, яка може бути зібрана під час навчання продуктів або функцій, пов’язаних зі штучним інтелектом, таких як Google Translate, Bard і Cloud AI.
Отже, що саме включає ця публічна інформація?
Така як інформація про Інтернет, мережу та іншу активність, включаючи інформацію про пошукові терміни, програми та взаємодію браузера зі службами Google, а також використання служб Google на сторонніх веб-сайтах і в програмах.
Іншими словами, не лише блоги та інший вміст, який раніше був оприлюднений, але й Документи Google, опубліковані в Інтернеті, або деякі публікації, що містять особисту інформацію, також можуть бути зібрані Google для навчання моделей.
Звичайно, наразі цей вміст все ще обмежується «публічною інформацією».
Служби електронної пошти, такі як Gmail, які надає Google, все одно не слід сканувати в даних.
Крім того, Google також чітко вказав у своїй політиці конфіденційності, що він також може використовувати таку особисту або загальнодоступну інформацію з інших причин, таких як запобігання загрозам безпеці, перегляд інформації, обслуговування послуг, персоналізована реклама або юридичні причини.
Але чому Google оновлює цю політику на цьому етапі?
"ШІ кидає виклик авторським правам на текст"
Можливо, це також пов’язано з роботою «обмеження струму» таких компаній, як Reddit і Twitter.
По-перше, у квітні цього року Reddit оголосив, що буде стягувати плату за доступ компаній до API.
Генеральний директор компанії вважає, що база даних Reddit дуже цінна, але вони не хочуть надавати цей цінний вміст великим технологічним компаніям безкоштовно.
Пізніше Twitter також почав обмежувати потік Twitter з причини: «Я не хочу, щоб компанії зі штучним інтелектом проститутували дані».
Ця низка правил має серйозний вплив на користувачів і сторонні інструменти. Наприклад, Reddit викликав масштабний протест на дошці обговорень. Багато модераторів безпосередньо закрили власні форуми, протестуючи проти діяльності Reddit. Багато людей засуджують, а деякі користувачі мережі навіть сказали, що "Твіттер убили".
Але в будь-якому випадку дозвіл штучному інтелекту безкоштовно отримувати дані зараз є протиріччям, яке не можна ігнорувати.
Щодо даних сканування Google AI, деякі користувачі мережі висловили сумніви:
Чому до того, як в Інтернеті, наприклад у пошукових системах, також були такі операції, як сканування даних, але люди були стійкі до «повзання ШІ».
Деякі користувачі мережі відповіли:
Це, по суті, проблема авторського права. Якщо ви просто цитуєте матеріал, захищений авторським правом, то ви не обов’язково порушуєте авторські права, але якщо ви використовуєте штучний інтелект для «перемішування та очищення» контенту, захищеного авторським правом, і це легалізовано, тоді, по суті, авторське право мертво.
Саме через це він песимістично налаштований у цьому питанні:
Якщо хтось скопіює ваш блог, не вказуючи джерело, або використовує ваш відкритий вихідний код для платних послуг, або використовує ваші відповіді на StackOverflow як спосіб відповіді на запитання, ви можете погодитися, що це станеться?
Усе, що я робив, було безкоштовним. Але тепер, якщо штучний інтелект хоче, щоб я зник, я зникну.
Звичайно, є також користувачі мережі, які прийняли запровадження цієї політики, і необхідно бути уважним до власної обізнаності кожного щодо профілактики:
Ознайомтеся з новою політикою та зверніть увагу, скільки інформації ми виливаємо в Інтернет.
Отже, що ви думаєте про це?
Посилання на посилання:
[1]
[2]
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ШІ Google їсть усе! Сканувати весь публічний вміст для навчання ШІ, політику конфіденційності оновлено
Перше джерело: Qubit
Відтепер кожне слово, яке ви публічно скажете в Інтернеті, може використовуватися Google для навчання ШІ!
Правильно, після фарбування написані роботи також підуть на живлення великих моделей——
Незалежно від того, чи це технічні блоги, код, документи чи будь-що, що ви публічно публікуєте в Інтернеті, це можна кинути в «Google Big Model Blender» навіть з авторським правом.
Користувачі мережі відразу ж вибухнули. Хтось попереджає, що «гугл все сканує»:
Для навчання продуктів ШІ, таких як Bard
Сьогодні все має початися з оновленої політики конфіденційності Google.
У своїй останній політиці конфіденційності Google додала пункт моделі AI щодо «досліджень і розробок»:
Іншими словами, це використання всієї загальнодоступної інформації, яка може бути зібрана під час навчання продуктів або функцій, пов’язаних зі штучним інтелектом, таких як Google Translate, Bard і Cloud AI.
Така як інформація про Інтернет, мережу та іншу активність, включаючи інформацію про пошукові терміни, програми та взаємодію браузера зі службами Google, а також використання служб Google на сторонніх веб-сайтах і в програмах.
Іншими словами, не лише блоги та інший вміст, який раніше був оприлюднений, але й Документи Google, опубліковані в Інтернеті, або деякі публікації, що містять особисту інформацію, також можуть бути зібрані Google для навчання моделей.
Звичайно, наразі цей вміст все ще обмежується «публічною інформацією».
Служби електронної пошти, такі як Gmail, які надає Google, все одно не слід сканувати в даних.
Крім того, Google також чітко вказав у своїй політиці конфіденційності, що він також може використовувати таку особисту або загальнодоступну інформацію з інших причин, таких як запобігання загрозам безпеці, перегляд інформації, обслуговування послуг, персоналізована реклама або юридичні причини.
Але чому Google оновлює цю політику на цьому етапі?
"ШІ кидає виклик авторським правам на текст"
Можливо, це також пов’язано з роботою «обмеження струму» таких компаній, як Reddit і Twitter.
По-перше, у квітні цього року Reddit оголосив, що буде стягувати плату за доступ компаній до API.
Генеральний директор компанії вважає, що база даних Reddit дуже цінна, але вони не хочуть надавати цей цінний вміст великим технологічним компаніям безкоштовно.
Пізніше Twitter також почав обмежувати потік Twitter з причини: «Я не хочу, щоб компанії зі штучним інтелектом проститутували дані».
Ця низка правил має серйозний вплив на користувачів і сторонні інструменти. Наприклад, Reddit викликав масштабний протест на дошці обговорень. Багато модераторів безпосередньо закрили власні форуми, протестуючи проти діяльності Reddit. Багато людей засуджують, а деякі користувачі мережі навіть сказали, що "Твіттер убили".
Але в будь-якому випадку дозвіл штучному інтелекту безкоштовно отримувати дані зараз є протиріччям, яке не можна ігнорувати.
Щодо даних сканування Google AI, деякі користувачі мережі висловили сумніви:
Посилання на посилання: [1] [2]