Программист Сици Чэнь (Siqi Chen) создал инструмент Humanizer, который позволяет чат-ботам уменьшать явные признаки автоматически созданного текста. В основу разработки легло руководство «Википедии» по выявлению низкокачественных материалов, сгенерированных искусственным интеллектом, о чём сообщает Ars Technica.
Источник изображения: Bryn Young/Unsplash
Этот плагин, являющийся пользовательским расширением для среды Claude Code от Anthropic, опирается на перечень признаков, составленный добровольцами онлайн-энциклопедии для противодействия недобросовестному контенту. Как указано на GitHub-странице проекта, Humanizer помогает ИИ-помощнику избежать распознавания, убирая типичные маркеры машинного текста. Среди них — скрытые ссылки на источники, рекламные формулировки, включая излишне восторженные оценки, а также шаблонные вежливые фразы вроде «Надеюсь, это поможет!». Исключение этих элементов делает результат работы нейросети более органичным.
В репозитории можно найти наглядные примеры преобразований. Инструмент меняет эмоционально окрашенное выражение «расположенный в захватывающем дух регионе» на нейтральное «город в регионе». Он также исправляет расплывчатые отсылки: вместо «Эксперты считают, что это играет важную роль» подставляет конкретную ссылку, например, «согласно опросу 2019 года, проведённому…». Чэнь подчеркнул, что плагин будет автоматически обновляться по мере пополнения руководства «Википедии».
The Verge, в свою очередь, указывает в публикации, что подстройка алгоритмов под критерии «естественности» — лишь вопрос времени для создателей ИИ. Издание приводит в пример компанию OpenAI, которая уже откорректировала работу ChatGPT, сократив злоупотребление длинными тире, ставшими одним из отличительных признаков машинного текста.