This research compares the capabilities of generative artificial intelligence systems ChatGPT, Microsoft Copilot, Google Gemini, and Perplexity in the automated production of reports for assessing human resource skills. The aim is to verify the effectiveness of these AI systems and understand their operational and decision-making impact. This study adopts a mixed-methods design, combining comparative data analysis based on quantitative metrics with qualitative assessments by experts in the field of human resource management psychology. The results highlight a significant divergence between quantitatively measured performance and expert judgment: Gemini generally scores higher on prompt adherence and text quality metrics, while ChatGPT and Copilot are preferred by experts. The discussion highlights structural limitations of generative AI, particularly the absence of communicative empathy and ethical judgment, identifying the "perception of automatism" as a key obstacle to professional adoption. The implications suggest that ChatGPT and Copilot can serve as effective support for preliminary report drafting, provided they are supervised by human professionals. In conclusion, the data supports a vision of "augmented intelligence," where AI amplifies but does not replace human expertise. The research proposes a hybrid model of skill assessment, based on the synergy between computational power and human sensitivity, outlining a basis for future studies.
Questa ricerca confronta le capacità dei sistemi di Intelligenza Artificiale generativa ChatGPT, Microsoft Copilot, Google Gemini e Perplexity nella produzione automatizzata di report per la valutazione delle competenze delle risorse umane. L'obiettivo è verificare l'efficacia di tali sistemi di IA e comprenderne l'impatto operativo e decisionale. Il presente studio adotta un disegno a metodi misti, combinando analisi dei dati comparative basate su metriche quantitative con valutazioni qualitative da parte di esperti della psicologia della gestione delle risorse umane. I risultati evidenziano una divergenza significativa tra performance misurata in modo quantitativo e giudizio esperto: Gemini ottiene in genere punteggi più alti nelle metriche di aderenza al prompt e di qualità testuale, mentre ChatGPT e Copilot risultano preferiti dagli esperti. La discussione mette in luce limiti strutturali dell'IA generativa, in particolare l'assenza di empatia comunicativa e giudizio etico, identificando nella "percezione di automatismo" un ostacolo chiave all'adozione professionale. Le implicazioni suggeriscono che ChatGPT e Copilot possano fungere da supporto efficace per la redazione preliminare dei report, purché supervisionati da professionisti umani. In conclusione, i dati supportano una visione di "intelligenza aumentata", dove l'IA amplifica ma non sostituisce l'expertise umana. La ricerca propone un modello ibrido di valutazione delle competenze, fondato sulla sinergia tra potenza computazionale e sensibilità umana, delineando una base per studi futuri.
Intelligenza Artificiale applicata alla Psicologia della gestione delle risorse umane: analisi comparativa e valutazione esperta delle performance di ChatGPT, Copilot, Gemini e Perplexity nella generazione di reportistica.
MENIS, MARTINA
2024/2025
Abstract
This research compares the capabilities of generative artificial intelligence systems ChatGPT, Microsoft Copilot, Google Gemini, and Perplexity in the automated production of reports for assessing human resource skills. The aim is to verify the effectiveness of these AI systems and understand their operational and decision-making impact. This study adopts a mixed-methods design, combining comparative data analysis based on quantitative metrics with qualitative assessments by experts in the field of human resource management psychology. The results highlight a significant divergence between quantitatively measured performance and expert judgment: Gemini generally scores higher on prompt adherence and text quality metrics, while ChatGPT and Copilot are preferred by experts. The discussion highlights structural limitations of generative AI, particularly the absence of communicative empathy and ethical judgment, identifying the "perception of automatism" as a key obstacle to professional adoption. The implications suggest that ChatGPT and Copilot can serve as effective support for preliminary report drafting, provided they are supervised by human professionals. In conclusion, the data supports a vision of "augmented intelligence," where AI amplifies but does not replace human expertise. The research proposes a hybrid model of skill assessment, based on the synergy between computational power and human sensitivity, outlining a basis for future studies.| File | Dimensione | Formato | |
|---|---|---|---|
|
Tesi - Martina Menis.pdf
accesso aperto
Dimensione
2.34 MB
Formato
Adobe PDF
|
2.34 MB | Adobe PDF | Visualizza/Apri |
È consentito all'utente scaricare e condividere i documenti disponibili a testo pieno in UNITESI UNIPV nel rispetto della licenza Creative Commons del tipo CC BY NC ND.
Per maggiori informazioni e per verifiche sull'eventuale disponibilità del file scrivere a: unitesi@unipv.it.
https://hdl.handle.net/20.500.14239/30832