Программист Сици Чэнь (Siqi Chen) создал инструмент Humanizer, который позволяет чат-ботам уменьшать явные признаки автоматически сгенерированного текста. В основу разработки легло руководство «Википедии» по выявлению низкокачественных материалов, созданных искусственным интеллектом, о чём сообщает издание Ars Technica.
Источник изображения: Bryn Young/Unsplash
Этот плагин, выполненный как пользовательский навык для среды Claude Code от Anthropic, опирается на перечень признаков, собранный добровольцами онлайн-энциклопедии для противодействия недобросовестному контенту. Как указано на GitHub-странице проекта, Humanizer помогает ИИ-помощнику избежать распознавания, убирая типичные маркеры машинного текста. Среди них — скрытые ссылки на источники, рекламные формулировки, включая излишне восторженные оценки, а также шаблонные вежливые фразы вроде «Надеюсь, это было полезно!». Исключение этих элементов делает результат работы нейросети более органичным.
В репозитории можно найти наглядные примеры преобразований. Инструмент меняет эмоционально окрашенное выражение «расположенный в захватывающем дух регионе» на нейтральное «город в регионе». Он также конкретизирует сведения: вместо расплывчатого «Эксперты полагают, что это имеет значение» подставляет определённую ссылку, например, «согласно исследованию 2019 года, проведённому…». Чэнь подчеркнул, что плагин будет автоматически обновляться по мере пополнения руководства «Википедии» по обнаружению ИИ-текстов.
The Verge в своей публикации добавляет, что подстройка алгоритмов под критерии «естественности» — лишь вопрос времени для создателей ИИ. Издание ссылается на компанию OpenAI, которая уже модифицировала ChatGPT, сократив злоупотребление длинными тире, ставшими одним из отличительных признаков машинного контента.