Детектор на университета Джонс Хопкинс лови AI плагиати
С бурното развитие на изкуствения интелект, става все по-невъзможно разпознаването на текстове, създадени от машини. От цели академични трудове до фалшиви новини – материалите, генерирани от изкуствен интелект, често остават незабелязани, давайки предимство на шмекери и разпространители на дезинформация.
Тук се появява революционният детектор на AI генерирано съдържание, създаден от екип на университета Джонс Хопкинс. Инструмента е предназначен да разобличава подобно съдържание и дори да идентифицира конкретния езиков модел измежду редовете.

Как работи детекторът: Разкриване на следи от AI
Независимо дали е създаден от човек или машина, всеки текст носи своите уникални стилови маркери. Изследователите от Джонс Хопкинс идентифицират своеобразни “пръстови отпечатъци” и разработват система за анализ и свързване на произволни текстове с техния произход. Николас Андрюс, старши научен сътрудник в Центъра за технологии на човешкия език на университета разкрива, че AI модели като ChatGPT, Gemini и LLaMA имат отличителни лингвистични характеристики, подобно на хората с различно образование и житейски бекграунд.
Революция в надзора над ИИ
Андрюс и екипът му първи демонстрират, че генерирани от изкуствен интелект текстове съдържат постоянни, идентифицируеми маркери. Тяхната разработка не само позволява разпознаването на AI генерирано съдържание, но и помага за идентифициране на езиковия модел, ползван за неговото създаване. Новият инструмент може да изиграе ключова роля в регулирането на системите с изкуствен интелект и намаляването на злоупотребите в области като образование, политика, онлайн комуникация и журналистика.
Технология зад инструмента
Вдъхновени от методи, заети от криминалистиката, екипът мащабира подхода си с помощта на невронна мрежа и огромен набор от данни. Невронната мрежа на инструмента създава “пръстови отпечатъци” за текстови проби, улавяйки сложни стилови нюанси, които са отвъд възможностите на човешкия анализ. Забележително е, че системата е точна на различни езици и остава устойчива срещу повечето тактики за замаскиране на злоупотреби.
Предизвикателства в откриването на преразказани от AI текстове
Докато детекторът е изключително успешен в разпознаването на генериран от AI нередактиран текст, перифразирането се явява значителен проблем за модела. В процеса на изпитание екипът на Андрюс установява, че тактиката за подтикване на ИИ да имитира човешки стил на изразяване е неефективна за заобикаляне възможностите на детектора. Въпреки това, перифразиран от ИИ текст, влошава успеваемостта на инструмента, което мотивира екипа да продължи да усъвършенства своята методика.

Реални приложения
Потенциалните приложения на инструмента са обширни:
- Образование: Преподавателите могат да обучат системата върху предишни курсови и дипломни работи на студентите, за да откриват плагиатство и генерирани от ИИ текстове.
- Журналистика: Редакциите могат да проверяват автентичността на съдържанието, намалявайки разпространението на дезинформация.
- Изследвания на ИИ: Разработчиците могат да тестват моделите си за непреднамерени стилови последователности, които могат да компрометират поверителността или сигурността.
С лесна за използване Python имплементация, инструментът дава възможност на организации и индивиди да персонализират детектора за своите специфични нужди. Андрюс подчертава гъвкавостта му, отбелязвайки, че модела осигурява нисък процент на фалшиви положителни резултати (≤1%) при адаптиране за частните нужди на конкретни компании и организации.
Шокиращи открития на международна конференция
По време на Международната конференция за обучители, изследователите от Джонс Хопкинс демонстрираха работата на инструмента си с интригуващи резултати. Сред рецензиите, представени на конференцията около 10% бяха маркирани като машинно генерирани. Това срамно разкритие говори за нарастващото присъствие на ИИ в академичните и професионални среди.
Път напред: Укрепване на отговорността в използването на ИИ
AI детекторът на Джонс Хопкинс представлява качествено нова стъпка към прозрачност и отговорност в използването на изкуствен интелект. Чрез оборудването на преподаватели, изследователи и организации с надеждни инструменти за идентифициране на машинно генерирано съдържание, обществото може по-успешно да се справи с етичните и практически предизвикателства, породени от анонимното използване на напреднали системи с изкуствен интелект.