Методология использования больших языковых моделей для решения задач государственного и муниципального управления по интеллектуальному реферированию и автоматическому формированию текстового контента
Ключевые слова:
Государственное управление, большие языковые модели, LLM, интеллектуальный ассистент, интеллектуальное реферирование, промпт-инжиниринг, креативный промптинг, генерация текстов, технологии GPT.Аннотация
Большие языковые модели (large language models, LLM) находят все новые области применения на практике, в том числе в сфере государственного и муниципального управления. Для повышения эффективности практического применения больших языковых моделей разрабатываются правила и приемы взаимодействия с ними, учитывающие специфику, широкий спектр их возможного использования и все возрастающую доступность. В статье исследованы вопросы повышения эффективности работы больших языковых моделей с различными видами контента с помощью приемов промпт-инжиниринга. Представлен анализ значительного числа промптов для больших языковых моделей и методик их формирования. Рассматриваются возможности применения больших языковых моделей, обучаемых (настраиваемых) с использованием креативного промтинга, для интеллектуального реферирования различного контента с последующей генерацией оригинальных текстов и текстовых документов для сферы государственного и муниципального управления. Предложенная методология позволяет при обучении LLM эффективно интегрировать в нее знания из различных источников и превращать в действительно интеллектуальный инструмент, расширяющий возможности его работы. При применении данного подхода LLM выступает в качестве мощного интеллектуального ассистента, позволяющего генерировать документ, автором которого является пользователь системы. Применение больших языковых моделей открывает работникам сферы государственного и муниципального управления широкие возможности для автоматизации процесса создания тематических текстов, текстовых отчетов, квалификационных работ, обзоров и аналитических записок; позволяет также пользователям в процессе анализа полученных при реферировании текстов увидеть возможные новые смыслы, ранее не замеченные ассоциации и даже генерировать новые идеи в сфере управления. Авторами показано, что для повышения качества интеллектуального реферирования необходимо осуществлять итерационное использование разных методов обучения (настройки) LLM. При этом важное значение имеет первоначальный отбор текстов для обучения, который производится пользователем с опорой на собственные знания предметной области.
Библиографические ссылки
Бахтизин А.Р. Вопросы прогнозирования в современных условиях // Экономическое возрождение России. 2023. № 2(76). С. 53–62. DOI: 10.37930/1990-9780-2023-2(76)-53-62
Белякова А.Ю., Беляков Ю.Д. Обзор задачи автоматической суммаризации текста // Инженерный вестник Дона. 2020. № 10(70). С. 142–159.
Брагин А.В., Бахтизин А.Р., Макаров В.Л. Большие языковые модели четвёртого поколения как новый инструмент в научной работе // Искусственные общества. 2023. T. 18. № 1. DOI: 10.18254/S207751800025046-9
Долгачева Е.Л., Косюк Е.Ю., Попова Д.Л., Русаков А.М. Современные методы и алгоритмы суммаризации текстов в задачах информационной безопасности // Материалы III Международной научно-практической конференции «Проблемы обеспечения безопасности (Безопасность-2021)». В 2-х томах. Уфа: Уфимский государственный авиационный технический университет, 2021. Т. 1. С. 287–293.
Кананыкина П.Г., Хорошевский В.Ф. Интеллектуальное реферирование: онтологический подход и его реализация в решениях ONTOS // XI национальная конференция по искусственному интеллекту с международным участием КИИ-2008. М.: Ленанд, 2008. Т. 2. URL: https://www.raai.org/pages/UGFnZVR5cGU6MTAwNQ==
Красочкин С.Г. Чем ChatGPT отличается от текущих нейросетей // Евразийский Союз Ученых. Серия: технические и физико-математические науки. 2023. № 4(107). С. 30–35.
Петрунин Ю.Ю. Развитие концепции социального искусственного интеллекта // Вестник Московского Университета. Серия 21. Управление (государство и общество). 2023. № 1. С. 93-112.
Jacobs G., Hoste V. Extracting Fine-Grained Economic Events from Business News // Proceedings of the 1st Joint Workshop on Financial Narrative Processing and MultiLing Financial Summarisation. Barcelona: online, 2020. P. 235–245.
Khurana A., Subramonyam H., Chilana P.K. Why and When LLM-Based Assistants Can Go Wrong: Investigating the Effectiveness of Prompt-Based Interactions for Software Help-Seeking? // IUI’24: Proceedings of the 29th International Conference on Intelligent User Interfaces. New York: Association for Computing Machinery, 2024. P. 288–303. DOI: 10.1145/3640543.3645200
Reynolds L., McDonell K. Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm // CHI EA’21: Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems. New York: Association for Computing Machinery, 2021. DOI: 10.1145/3411763.3451760
Shao Zh., Gong Y., Shen Y., Huang M., Duan N., Chen W. Synthetic Prompting: Generating Chain-of-Thought Demonstrations for Large Language Models // Proceedings of the 40th International Conference on Machine Learning. Honolulu, Hawaii: JMLR.org, 2023. P. 30706–30775.