Польза ChatGPT для редактирования и исправления ошибок в текстах общей тематики, политических и научно-популярных статьях неоспорима. Однако, когда речь идет об академическом языке и редактировании научных статей, он может допускать ошибки. Причем такие, которые очень сложно заметить при финальной вычитке. Об этом мы пишем в данной статье, основываясь на реальных примерах из нашей практики.
ChatGPT может изменить задуманное автором значение - он заменил "плохую активность" на "ограниченную мобильность", что меняет
смысл текста.
ChatGPT не может оставлять комментарии с просьбой о разъяснениях, как это сделал бы редактор-человек.
ChatGPT изменил текст "после второго раунда консультации в больнице" на "после консультации в больнице для получения второго мнения", немного изменив смысл автора. Разница здесь тонкая, но потенциально важная.
ChatGPT может добавлять слова ненадлежащим образом, например, часто добавляется слово "изначально".
ChatGPT может неправильно выбирать слова, например, ненадлежащим образом изменил слово "аллогенный" на "экзогенный", потому, что слово было написано неправильно в исходной, неотредактированной версии.
ChatGPT изменил слово "одноразовое использование" на "индивидуально", что сделало текст бессмысленным.
ChatGPT может использовать неправильное время, например, настоящее время, тогда как результаты традиционно представляются в прошедшем времени.
ChatGPT может использовать неправильное соглашение субъекта и глагола, например, слово "were" во множественном числе и слово "2 грамма дистиллированной воды" в единственном числе.
ChatGPT не следует правилу форматирования журнала, согласно которому латинские имена должны быть написаны полностью.
ChatGPT не смог исправить составное прилагательное, в котором первое слово оканчивается на "ly", и оно не должно содержать дефиса.
Языковые модели, такие как ChatGPT, несомненно, будут продолжать совершенствоваться, однако редакторы-люди остаются пока лучшим способом подготовить статьи к публикации.