Skip to main content
Пријава

Collected Item: “Advancing Sentiment Analysis in Serbian Literature: A Zero and Few-Shot Learning Approach Using the Mistral Model”

Врста публикације

Рад у зборнику

Верзија документа

објављена

Језик

енглески

Аутор/и (Милан Марковић, Никола Николић)

Milica Ikonic Nešić, Saša Petalinkar,Mihailo Škorić, Ranka Stanković, Biljana Rujević

Наслов рада (Наслов - поднаслов)

Advancing Sentiment Analysis in Serbian Literature: A Zero and Few-Shot Learning Approach Using the Mistral Model

Назив конференције (зборника), место и датум одржавања

Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024)

Уредник/ци зборника

Nicoletta Calzolari, Min-Yen Kan, Veronique Hoste, Alessandro Lenci, Sakriani Sakti, Nianwen Xue

Издавач (Београд : Просвета)

LREC | COLING

Година издавања

2024

Сажетак рада на српском језику

Ova studija predstavlja analizu sentimenta srpskih starih romana iz perioda 1840-1920, koristeći veliki jezički model (LLM) Mistral za tehniku učenja sa zasnovani na takozvanim "zero" i "few-shot" pokušajima. Glavni pristup uvodi inovacije osmišljavanjem istraživačkih upita (promptova) uključuju tekst sa uputstvom za klasifikaciju bez primera i na osnovu nekoliko primera, omogućavajući jezičkom modelu da klasifikuje osećanja u pozitivne, negativne ili objektivne kategorije. Ova metodologija ima za cilj da pojednostavi analizu osećanja ograničavanjem odgovora, čime se povećava preciznost klasifikacije. Python, zajedno sa bibliotekama Hugging Face Transformers i LangChain su tehnološka okosnica kaja olakšava kreiranje i usavršavanje istraživačkih procesa za analizu sentimenta na nivou rečenice. Rezultati analize sentimenta u oba scenarija, nultom i nekoliko hitaca, pokazali su da je nulti pristup bolji, postižući preciznost od 68,2%.

Сажетак рада на енглеском језику

This study presents the Sentiment Analysis of the Serbian old novels from the 1840-1920 period, employing the Mistral Large Language Model (LLM) to pioneer zero and few-shot learning techniques. The main approach innovates by devising research prompts that include guidance text for zero-shot classification and examples for fewshot learning, enabling the LLM to classify sentiments into positive, negative, or objective categories. This methodology aims to streamline sentiment analysis by limiting responses, thereby enhancing classification precision. Python, along with the Hugging Face Transformers and LangChain libraries, serves as our technological backbone, facilitating the creation and refinement of research prompts tailored for sentence-level sentiment analysis. The results of sentiment analysis in both scenarios, zero-shot and few-shot, have indicated that the zero-shot approach outperforms, achieving an accuracy of 68.2%.

Почетна страна рада

58

Завршна страна рада

70

DOI број

zero-shot, few-shot, sentiment, Serbian, Mistral model

Кључне речи на српском (одвојене знаком ", ")

zero-shot, few-shot, sentiment, Serbian, Mistral model

Кључне речи на енглеском (одвојене знаком ", ")

učenje bez primera, učenje sa nekoliko primera, srpski, model Mistral

УДК број

standardizacija, digitalna leksikografija, OntoLex, upiti korpusa, Povezani podaci, Lingvistički Povezani Otvoreni Podaci

Шира категорија рада према правилнику МПНТ

М30

Ужа категорија рада према правилнику МПНТ

М33

Пројект у склопу кога је настао рад

TESLA

Ниво приступа

Отворени приступ

Лиценца

Creative Commons – Attribution 4.0 International

Формат датотеке

.pdf
Click here to view the corresponding item.