AIНовини

Детектор на университета Джонс Хопкинс лови AI плагиати

С бурното развитие на изкуствения интелект, става все по-невъзможно разпознаването на текстове, създадени от машини. От цели академични трудове до фалшиви новини – материалите, генерирани от изкуствен интелект, често остават незабелязани, давайки предимство на шмекери и разпространители на дезинформация.

Тук се появява революционният детектор на AI генерирано съдържание, създаден от екип на университета Джонс Хопкинс. Инструмента е предназначен да разобличава подобно съдържание и дори да идентифицира конкретния езиков модел измежду редовете.

Източник: JHU

Как работи детекторът: Разкриване на следи от AI

Независимо дали е създаден от човек или машина, всеки текст носи своите уникални стилови маркери. Изследователите от Джонс Хопкинс идентифицират своеобразни “пръстови отпечатъци” и разработват система за анализ и свързване на произволни текстове с техния произход. Николас Андрюс, старши научен сътрудник в Центъра за технологии на човешкия език на университета разкрива, че AI модели като ChatGPT, Gemini и LLaMA имат отличителни лингвистични характеристики, подобно на хората с различно образование и житейски бекграунд.

Революция в надзора над ИИ

Андрюс и екипът му първи демонстрират, че генерирани от изкуствен интелект текстове съдържат постоянни, идентифицируеми маркери. Тяхната разработка не само позволява разпознаването на AI генерирано съдържание, но и помага за идентифициране на езиковия модел, ползван за неговото създаване. Новият инструмент може да изиграе ключова роля в регулирането на системите с изкуствен интелект и намаляването на злоупотребите в области като образование, политика, онлайн комуникация и журналистика.

Технология зад инструмента

Вдъхновени от методи, заети от криминалистиката, екипът мащабира подхода си с помощта на невронна мрежа и огромен набор от данни. Невронната мрежа на инструмента създава “пръстови отпечатъци” за текстови проби, улавяйки сложни стилови нюанси, които са отвъд възможностите на човешкия анализ. Забележително е, че системата е точна на различни езици и остава устойчива срещу повечето тактики за замаскиране на злоупотреби.

Предизвикателства в откриването на преразказани от AI текстове

Докато детекторът е изключително успешен в разпознаването на генериран от AI нередактиран текст, перифразирането се явява значителен проблем за модела. В процеса на изпитание екипът на Андрюс установява, че тактиката за подтикване на ИИ да имитира човешки стил на изразяване е неефективна за заобикаляне възможностите на детектора. Въпреки това, перифразиран от ИИ текст, влошава успеваемостта на инструмента, което мотивира екипа да продължи да усъвършенства своята методика.

Изображение: ИИ

Реални приложения

Потенциалните приложения на инструмента са обширни:

  • Образование: Преподавателите могат да обучат системата върху предишни курсови и дипломни работи на студентите, за да откриват плагиатство и генерирани от ИИ текстове.
  • Журналистика: Редакциите могат да проверяват автентичността на съдържанието, намалявайки разпространението на дезинформация.
  • Изследвания на ИИ: Разработчиците могат да тестват моделите си за непреднамерени стилови последователности, които могат да компрометират поверителността или сигурността.

С лесна за използване Python имплементация, инструментът дава възможност на организации и индивиди да персонализират детектора за своите специфични нужди. Андрюс подчертава гъвкавостта му, отбелязвайки, че модела осигурява нисък процент на фалшиви положителни резултати (≤1%) при адаптиране за частните нужди на конкретни компании и организации.

Шокиращи открития на международна конференция

По време на Международната конференция за обучители, изследователите от Джонс Хопкинс демонстрираха работата на инструмента си с интригуващи резултати. Сред рецензиите, представени на конференцията около 10% бяха маркирани като машинно генерирани. Това срамно разкритие говори за нарастващото присъствие на ИИ в академичните и професионални среди.

Път напред: Укрепване на отговорността в използването на ИИ

AI детекторът на Джонс Хопкинс представлява качествено нова стъпка към прозрачност и отговорност в използването на изкуствен интелект. Чрез оборудването на преподаватели, изследователи и организации с надеждни инструменти за идентифициране на машинно генерирано съдържание, обществото може по-успешно да се справи с етичните и практически предизвикателства, породени от анонимното използване на напреднали системи с изкуствен интелект.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *