ChatGPT удаляет официальный инструмент обнаружения, признает, что текст AI не может быть идентифицирован

Источник: «Кубит» (ID: QbitAI), автор: Mengchen

Без объявления OpenAI тихо закрыл инструмент обнаружения текста AI, и страница сразу 404.

Официального ответа на это не последовало, и прошло несколько дней, прежде чем кто-то нашел краткое описание, спрятанное на странице блога инструмента, выпущенного полгода назад.

...Детектор ИИ больше не доступен из-за низкой точности... Мы работаем над более эффективными методами обнаружения текста и стремимся к разработке методов аудио- и визуального обнаружения.

Многие пользователи сети недовольны поведением CloseAIOpenAI, убивающим продукт без объявления.

Но есть много людей, которые согласны с отключением самого детектора ИИ, особенно студенческая группа.

Слишком много учителей считают, что эта штука эффективна, и большое количество обиженных учеников жульничают с помощью ИИ, что превратилось в охоту на ведьм.

Точность почти такая же, как угадывание

Насколько низка точность этого официального инструмента тестирования?

Данные, предоставленные самим OpenAI, могут правильно идентифицировать только 26% текстов, сгенерированных ИИ, и ошибочно 9% текстов, написанных человеком.

Когда он был впервые выпущен в январе, пользователи сети охарактеризовали его как «почти как угадывание».

Кроме того, некоторые люди провели эксперименты и обнаружили, что различные инструменты обнаружения на рынке будут судить о том, что исторические тексты, такие как Библия и Конституция США, могут быть написаны ИИ.Исторические личности, которые не могут написать это содержимое, являются путешественниками во времени, верно?

Но все еще остается много учителей, которые пытаются проверять работу учащихся различными методами обнаружения.

В одном из самых известных случаев профессор Техасского университета A&M почти решил, что половина его класса опоздала.

Последняя тенденция заключается в том, что учителя просят учеников писать задания в онлайн-документах и проверять записи об изменениях, но умные ученики также могут найти способы обойти это.

Наконец, в сфере образования некоторые люди предположили, что большие задания/курсовые работы могут уйти в историю, а закрытые экзамены или устные экзамены станут мейнстримом.

Текущие методы обнаружения можно обойти

Пользователи сети отметили, что для OpenAI противоречиво разрабатывать инструменты генерации и обнаружения одновременно.

Если у одной стороны дела идут хорошо, у другой стороны дела идут плохо, и может возникнуть конфликт интересов.

Однако методы обнаружения, разработанные третьими лицами, ненадежны.

Самый ранний, известный как «Немезида ChatGPT», — это GPTZero, разработанный студентом Принстона Эдвардом Тианом, который использует сложность и изменения длины и длины предложений для измерения того, создана ли статья ИИ.

В то время проект GPTZero был специально создан для воспитателей, и учителя могли закинуть в него домашнее задание всего класса для проверки.

Но в июле автор признался, что отказался от направления выявления списывания студентов: планируется, что следующая версия GPTZero уже не будет определять, сгенерирован ли текст ИИ, а выделять наиболее человеческую часть.

Другим методом обнаружения, который привлек большое внимание, является метод водяных знаков, разработанный Университетом Мэриленда, который требует, чтобы большие модели скрывали метки при создании текста и использовали статистические методы для их идентификации.

Но способ обойти это также очень прост, например, кто-то разработал простой инструмент замены синонимов, который может уничтожить статистические признаки.

Некоторые люди даже начали задаваться вопросом, почему люди должны различать это.

Точно так же, как вычисляются числа людьми или составляются компьютерами, уже давно никого не волнует.

Неужели никого не волнует, написана ли рукопись оратора им самим или секретарем?

Исследование человеческого поведения с использованием ИИ в качестве объекта

Неспособность отличить ИИ от человеческого контента, похоже, не так уж и плоха.

Уже проводятся психологические эксперименты, в которых для ускорения исследований используется ИИ вместо людей.

В статье в поджурнале Cell указывалось, что в хорошо продуманных экспериментальных сценариях ответы ChatGPT коррелировали с ответами примерно 95% участников-людей.

А объекты-машины не устают, что позволяет ученым собирать данные и проверять теории о человеческом поведении с беспрецедентной скоростью.

В недавней статье, опубликованной в главном журнале Science, Игорь Гроссман, профессор психологии Университета Ватерлоо, считает:

«ИИ может изменить правила игры в исследованиях в области социальных наук, где ключевыми являются тщательное управление предвзятостью и точность данных».

### Ссылка на ссылку

[1]

[2]

[3]

[4]

[5]

[6]

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить