ChatGPT видаляє офіційний інструмент виявлення, визнаючи, що ШІ-текст неможливо ідентифікувати

Джерело: «Qubit» (ID: QbitAI), автор: Mengchen

Без оголошення OpenAI тихо закрив інструмент виявлення тексту AI ​, і сторінка безпосередньо 404.

Офіційної відповіді на це не було, і минуло кілька днів, перш ніж хтось знайшов короткий опис, прихований на сторінці блогу інструменту, випущеного півроку тому.

...детектор штучного інтелекту більше недоступний через низьку точність... Ми працюємо над більш ефективними методами виявлення тексту та прагнемо розробити методи виявлення звуку та зображення.

Багато користувачів мережі незадоволені поведінкою CloseAIOpenAI, яка вбиває продукт без оголошення.

Але є багато людей, які згодні з відключенням самого детектору ШІ, особливо студентська група.

Надто багато вчителів вважають, що ця штука ефективна, і велика кількість скривджених учнів обманюють за допомогою ШІ, що стало полюванням на відьом.

Точність майже така ж, як і вгадування

Наскільки низька точність цього офіційного інструменту тестування?

Дані, надані самим OpenAI, можуть правильно ідентифікувати лише 26% текстів, створених ШІ, і неправильні 9% текстів, написаних людиною.

Коли він був вперше опублікований у січні, користувачі мережі назвали його «майже здогадом».

Крім того, деякі люди провели експерименти та виявили, що різні інструменти виявлення на ринку вирішать, що історичні тексти, такі як Біблія та Конституція США, можуть бути написані ШІ. Історичні постаті, які не можуть написати цей вміст, є мандрівниками в часі, чи не так?

Але є ще багато вчителів, які намагаються перевірити роботу учнів різними методами виявлення.

В одному з найвідоміших випадків професор Техаського університету A&M мало не визнав половину свого класу запізнілим.

Остання тенденція полягає в тому, що вчителі просять студентів писати завдання в онлайн-документах і перевіряти редаговані записи, але кмітливі студенти також знайдуть способи обійти це.

Нарешті, у сфері освіти деякі люди припускають, що великі завдання/курсові роботи можуть стати історією, а іспити за закритими книгами чи усні іспити стануть основними.

Поточні методи виявлення можна обійти

Користувачі мережі зазначили, що для OpenAI суперечливо розробляти інструменти генерації та виявлення одночасно.

Якщо одна сторона працює добре, інша сторона працює погано, і може виникнути конфлікт інтересів.

Однак методи виявлення, розроблені сторонніми розробниками, не є надійними.

Найпершим, відомим як «Немезида ChatGPT», є GPTZero, розроблений студентом Прінстонського університету Едвардом Тіаном, який використовує складність і зміни довжини та довжини речень, щоб визначити, чи статтю створено ШІ.

Тоді проект GPTZero створювався спеціально для освітян, і вчителі могли закидати в нього на перевірку домашнє завдання всього класу.

Але в липні автор зізнався, що відмовився від напрямку виявлення списувань студентів.Планується, що наступна версія GPTZero вже не буде визначати, чи згенерований текст штучним інтелектом, а виділить найбільш людську частину.

Ще один метод виявлення, який привернув велику увагу, — це метод водяних знаків, розроблений Університетом Меріленда, який вимагає, щоб великі моделі приховували позначки під час створення тексту та використовували статистичні методи для їх ідентифікації.

Але спосіб обійти це також дуже простий. Наприклад, хтось розробив простий інструмент заміни синонімів, який може знищити статистичні характеристики.

Деякі люди навіть почали дивуватися, чому люди повинні це розрізняти.

Так само, як обчислюють цифри люди чи завершують комп’ютери, нікого вже давно не хвилює.

Невже нікого не хвилює, рукопис доповідача він сам чи секретар?

Дослідження поведінки людини з використанням штучного інтелекту як предмета

Неможливість відрізнити AI від людського контенту, здається, не така вже й погана.

Уже існують психологічні експерименти, які використовують ШІ замість людей для прискорення досліджень.

У статті в допоміжному журналі Cell зазначено, що в добре продуманих експериментальних сценаріях відповіді ChatGPT корелювали з відповідями приблизно 95% людей-учасників.

І машини не втомлюються, дозволяючи вченим збирати дані та перевіряти теорії про людську поведінку з безпрецедентною швидкістю.

У нещодавній статті в головному журналі Science Ігор Гроссман, професор психології Університету Ватерлоо, вважає:

«Штучний інтелект може кардинально змінити ситуацію в соціальних наукових дослідженнях, де ретельне управління упередженням і точність даних є ключовими».

### Посилання на посилання

[1]

[2]

[3]

[4]

[5]

[6]

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити