I modelli linguistici evoluti possono essere considerati macchine culturali, in quanto producono cultura sotto forma di senso comune (O’Neil 2017; Noble, 2018; Zona & De Castro, 2020) e, al contempo, dispositivi ideologici, poiché portano in emersione l’ideologia dominante. Per questo motivo il loro utilizzo (e quello dell’intelligenza artificiale più in generale) pone un gigantesco problema educativo. In accordo con studiose come Timnit Gebru, più che interrogarci sulla possibilità che le macchine possano divenire senzienti, dovremmo concentrare la nostra attenzione sulle modalità di addestramento degli algoritmi, i quali utilizzano parole – e, di conseguenza, veicolano significati – che non scelgono autonomamente, ma che vengono loro trasferiti dai progettisti (Vygotskij, 2008; Zona & De Castro, 2022). È proprio a causa di errori di generalizzazione e della ricombinazione perpetua di informazioni presenti in Rete che modelli supervisionati e preaddestrati attraverso il rinforzo skinneriano – come, ad esempio, ChatGPT o, nel caso della ricerca che presenteremo in questa sede, Text-to-image-model come AI Text Generator – possono farsi portavoce di espressioni e rappresentazioni razziste, sessiste e, più in generale, discriminatorie.
Boi, S., Zona, U., DE CASTRO, M., Bulgarelli, A., Bocci, F. (2024). L’intelligenza artificiale tra replicazione del senso comune e costruzione del consenso. In A.F. S. Pinnelli (a cura di), I linguaggi della Pedagogia Speciale. La prospettiva dei valori e dei contesti di vita (pp. 308-314). Lecce : Pensa Multimedia.
L’intelligenza artificiale tra replicazione del senso comune e costruzione del consenso
BOI Sofia
;ZONA Umberto;DE CASTRO Martina;BULGARELLI Aurora
;BOCCI Fabio
2024-01-01
Abstract
I modelli linguistici evoluti possono essere considerati macchine culturali, in quanto producono cultura sotto forma di senso comune (O’Neil 2017; Noble, 2018; Zona & De Castro, 2020) e, al contempo, dispositivi ideologici, poiché portano in emersione l’ideologia dominante. Per questo motivo il loro utilizzo (e quello dell’intelligenza artificiale più in generale) pone un gigantesco problema educativo. In accordo con studiose come Timnit Gebru, più che interrogarci sulla possibilità che le macchine possano divenire senzienti, dovremmo concentrare la nostra attenzione sulle modalità di addestramento degli algoritmi, i quali utilizzano parole – e, di conseguenza, veicolano significati – che non scelgono autonomamente, ma che vengono loro trasferiti dai progettisti (Vygotskij, 2008; Zona & De Castro, 2022). È proprio a causa di errori di generalizzazione e della ricombinazione perpetua di informazioni presenti in Rete che modelli supervisionati e preaddestrati attraverso il rinforzo skinneriano – come, ad esempio, ChatGPT o, nel caso della ricerca che presenteremo in questa sede, Text-to-image-model come AI Text Generator – possono farsi portavoce di espressioni e rappresentazioni razziste, sessiste e, più in generale, discriminatorie.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.