L’uso sempre più capillare dei Large Language Models per risolvere task quotidiani e precedentemente portati a termine solo da esseri umani ha richiesto una maggior ricerca e consapevolezza sul prompt engineering e su come funzionino i prompt, strumenti essenziali nell’impartire indicazioni ai modelli. Il presente lavoro ha lo scopo di indagare con quali strategie è possibile redarre efficacemente i prompt, seguendo sia indicazioni di buona scrittura, sia tecniche più complesse che coinvolgono la struttura del testo e stimolano gli LLM a compiere ragionamenti più approfonditi. Inoltre, viene fatta anche menzione dei sistemi di valutazione automatica impiegati nella valutazione delle prestazioni dei prompt. L’esperimento condotto ha coinvolto l’uso del modello interno di ETET (GPT-5.2) e ha visto l’utilizzo di vari prompt personalizzati con modifiche atte a dimostrare gli effetti che queste hanno avuto sulle prestazioni del sistema. In conclusione, i risultati dell’esperimento dimostrano che una migliore separazione delle sezioni del prompt, insieme all’uso di titoli e di elenchi ordinati, aiutano a indirizzare meglio l’attenzione del modello e migliorano la comprensione del compito e delle azioni da intraprendere. Inoltre, anche una maggior sinteticità e un uso più consapevole delle tecniche presentate, come, ad esempio, il role prompting, conduce ad alcuni miglioramenti osservabili nelle prestazioni del modello. Parole chiave: Prompt engineering, LLM, GPT-5.2, LLMs-as-judges, Automated Essay Scoring (AES).

PROMPT ENGINEERING E LLMS-AS-JUDGES. ETET COME CASO DI STUDIO

FECCIA, PAOLO
2024/2025

Abstract

L’uso sempre più capillare dei Large Language Models per risolvere task quotidiani e precedentemente portati a termine solo da esseri umani ha richiesto una maggior ricerca e consapevolezza sul prompt engineering e su come funzionino i prompt, strumenti essenziali nell’impartire indicazioni ai modelli. Il presente lavoro ha lo scopo di indagare con quali strategie è possibile redarre efficacemente i prompt, seguendo sia indicazioni di buona scrittura, sia tecniche più complesse che coinvolgono la struttura del testo e stimolano gli LLM a compiere ragionamenti più approfonditi. Inoltre, viene fatta anche menzione dei sistemi di valutazione automatica impiegati nella valutazione delle prestazioni dei prompt. L’esperimento condotto ha coinvolto l’uso del modello interno di ETET (GPT-5.2) e ha visto l’utilizzo di vari prompt personalizzati con modifiche atte a dimostrare gli effetti che queste hanno avuto sulle prestazioni del sistema. In conclusione, i risultati dell’esperimento dimostrano che una migliore separazione delle sezioni del prompt, insieme all’uso di titoli e di elenchi ordinati, aiutano a indirizzare meglio l’attenzione del modello e migliorano la comprensione del compito e delle azioni da intraprendere. Inoltre, anche una maggior sinteticità e un uso più consapevole delle tecniche presentate, come, ad esempio, il role prompting, conduce ad alcuni miglioramenti osservabili nelle prestazioni del modello. Parole chiave: Prompt engineering, LLM, GPT-5.2, LLMs-as-judges, Automated Essay Scoring (AES).
2024
PROMPT ENGINEERING AND LLMS-AS-JUDGES. ETET AS A CASE STUDY
File in questo prodotto:
File Dimensione Formato  
Feccia_Paolo_tesi.pdf

accesso aperto

Dimensione 1.93 MB
Formato Adobe PDF
1.93 MB Adobe PDF Visualizza/Apri

È consentito all'utente scaricare e condividere i documenti disponibili a testo pieno in UNITESI UNIPV nel rispetto della licenza Creative Commons del tipo CC BY NC ND.
Per maggiori informazioni e per verifiche sull'eventuale disponibilità del file scrivere a: unitesi@unipv.it.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14239/34387