Опыт дообучения языковой модели – от бытового языка к философскому [Experience of Fine-Tuning a Language Model – From Everyday Language to Philosophical Language]

Dmitry Andereevich Yarochkin

Abstract


Аннотация

Статья исследует интеграцию философии, в частности аристотелевской мысли, в сферу искусственного интеллекта В ней описывается проект, направленный на дообучение языковой модели с целью повышения её способности обрабатывать и генерировать философские тексты. Основная цель заключается в улучшении понимания моделью сложных философских концепций и её способности к критическому мышлению. Это достигается за счёт тонкой настройки модели на корпусе текстов Аристотеля и связанных с ними аналитических материалов. Исследование использует как количественные метрики, так и качественную экспертизу для оценки производительности модели, включая её способность работать с этическими и онтологическими вопросами. В конечном итоге, работа направлена на развитие более объяснимых и этически обоснованных систем искусственного интеллекта, использующих философские подходы для улучшения способности ИИ к рассуждению и концептуальному пониманию

Abstract

The article explores the integration of philosophy, specifically Aristotle’s thought, with artificial intelligence. It details a project focused on fine-tuning a language model to enhance its ability to process and generate philosophical texts. The major aim is to improve the model’s understanding of complex philosophical concepts and its capacity for critical thinking. This is achieved through fine-tuning the model using a corpus of Aristotle’s works and related research. The study employs both quantitative metrics and qualitative expert evaluations to assess the model’s performance, including its ability to handle ethical and ontological questions. Ultimately, the research aims to contribute to the development of more explainable and ethically grounded AI systems, using philosophical frameworks to improve AI’s reasoning and conceptual comprehension.


Keywords


философия, искусственный интеллект, цифровая философия, языковые модели, Аристотель, обучение, критическое мышление, этика ИИ, онтология, эпистемология, педагогика, технологии ИИ

Full Text:

PDF

References


Korniyenko, A. A., Korniyenko, A. A., & Korniyenko, A. V. (2013). К вопросу о философских предпосылках, состоянии и перспективах исследований по проблеме искусственного интеллекта. Известия Томского политехнического университета. Инжиниринг георесурсов, 323(6), 210–215

Baytas, C., & Ruediger, D. (2024). Generative AI in higher education: The product landscape. ITHAKA S+R. Retrieved from https://www.jstor.org/stable/resrep61192

Chiang, Y. V., Chang, M., & Chen, N.-S. (2024). Can generative AI help realize the shift from an outcome-oriented to a process-outcome-balanced educational practice? Educational Technology & Society, 27(2), 347–385. https://doi.org/10.30191/ETS.202404_27(2).TP04

Hicks, D. (1907). Aristotle: De anima with translation, introduction, and notes. Cambridge University Press.

Kim, Y. (2016). Designing a robot for cultural brokering in education. Educational Technology, 41–43.

Laurillard, D. (1988). The pedagogical limitations of generative. Instructional Science, 17(3), 235–250. https://doi.org/10.1007/BF00048343

Leach, J. (2008). Do new information and communications technologies have a role to play in the achievement of education for all? British Educational Research Journal, 34(6), 783–805.

Lee, U., et al. (2024). Can ChatGPT be a debate partner? Developing ChatGPT-based application “DEBO” for debate education, findings and limitations. Educational Technology & Society, 27(2), 321–346.

Lin, M. P.-C., & Chang, D. (2020). Enhancing post-secondary writers’ writing skills with a chatbot. Journal of Educational Technology & Society, 23(1), 78–92.

Oxford AI Ethics. (2024). Aristotle and AI: White Paper (June 2024). Oxford University. Retrieved from https://www.oxford-aiethics.ox.ac.uk/sites/default/files/2024-06/Aristotle%20and%20AI%20White%20Paper%20-%20June%202024.pdf

Pasin, M., & Motta, E. (2011). Ontological requirements for annotation and navigation of philosophical resources. Synthese, 182, 235–267.https://doi.org/10.1007/s11229-009-9660-3

Rees, T. (2022). Non-human words: On GPT-3 as a philosophical laboratory. Daedalus, 151(2), 168–182. https://doi.org/10.1162/daed_a_01908

Sennett, R. (2009). The craftsman. Penguin Books Limited.

Verdú, E., Regueras, L. M., Gal, E., de Castro, J. P., Verdú, M. J., & Kohen-Vacs, D. (2017). Integration of an intelligent tutoring system in a course of computer network design. Educational Technology Research and Development, 65, 653–677. doi:10.1007/s11423-016-9503-0

Wasson, B. (1998). Facilitating dynamic pedagogical decision making: PEPE and GTE. Instructional Science, 26, 299–316. https://doi.org/10.1023/A:1003071617564

Zmitrovich, D., Abramov, A., Kalmykov, A., Tikhonova, M., Taktasheva, E., Astafurov, D., Baushenko, M., Snegirev, A., Kadulin, V., Markov, S., Shavrina, T., Mikhailov, V., & Fenogenova, A. (n.d.). A family of pretrained transformer language models for Russian. Retrieved from https://huggingface.co/ai-forever/rugpt3small_based_on_gpt2




DOI: http://dx.doi.org/10.6667/interface.26.2025.257

Refbacks

  • There are currently no refbacks.


Copyright (c) 2025 Dmitry Andereevich Yarochkin

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.

 

Copyright © 2016. All Rights Reserved | Interface | ISSN: 2519-1268