I modelli linguistici evoluti possono essere considerati macchine culturali, in quanto producono cultura sotto forma di senso comune (O’Neil 2017; Noble, 2018; Zona & De Castro, 2020) e, al contempo, dispositivi ideologici, poiché portano in emersione l’ideologia dominante. Per questo motivo il loro utilizzo (e quello dell’intelligenza artificiale più in generale) pone un gigantesco problema educativo. In accordo con studiose come Timnit Gebru, più che interrogarci sulla possibilità che le macchine possano divenire senzienti, dovremmo concentrare la nostra attenzione sulle modalità di addestramento degli algoritmi, i quali utilizzano parole – e, di conseguenza, veicolano significati – che non scelgono autonomamente, ma che vengono loro trasferiti dai progettisti (Vygotskij, 2008; Zona & De Castro, 2022). È proprio a causa di errori di generalizzazione e della ricombinazione perpetua di informazioni presenti in Rete che modelli supervisionati e preaddestrati attraverso il rinforzo skinneriano – come, ad esempio, ChatGPT o, nel caso della ricerca che presenteremo in questa sede, Text-to-image-model come AI Text Generator – possono farsi portavoce di espressioni e rappresentazioni razziste, sessiste e, più in generale, discriminatorie.

Boi, S., Zona, U., DE CASTRO, M., Bulgarelli, A., Bocci, F. (2024). L’intelligenza artificiale tra replicazione del senso comune e costruzione del consenso. In A.F. S. Pinnelli (a cura di), I linguaggi della Pedagogia Speciale. La prospettiva dei valori e dei contesti di vita (pp. 308-314). Lecce : Pensa Multimedia.

L’intelligenza artificiale tra replicazione del senso comune e costruzione del consenso

BOI Sofia
;
ZONA Umberto;DE CASTRO Martina;BULGARELLI Aurora
;
BOCCI Fabio
2024-01-01

Abstract

I modelli linguistici evoluti possono essere considerati macchine culturali, in quanto producono cultura sotto forma di senso comune (O’Neil 2017; Noble, 2018; Zona & De Castro, 2020) e, al contempo, dispositivi ideologici, poiché portano in emersione l’ideologia dominante. Per questo motivo il loro utilizzo (e quello dell’intelligenza artificiale più in generale) pone un gigantesco problema educativo. In accordo con studiose come Timnit Gebru, più che interrogarci sulla possibilità che le macchine possano divenire senzienti, dovremmo concentrare la nostra attenzione sulle modalità di addestramento degli algoritmi, i quali utilizzano parole – e, di conseguenza, veicolano significati – che non scelgono autonomamente, ma che vengono loro trasferiti dai progettisti (Vygotskij, 2008; Zona & De Castro, 2022). È proprio a causa di errori di generalizzazione e della ricombinazione perpetua di informazioni presenti in Rete che modelli supervisionati e preaddestrati attraverso il rinforzo skinneriano – come, ad esempio, ChatGPT o, nel caso della ricerca che presenteremo in questa sede, Text-to-image-model come AI Text Generator – possono farsi portavoce di espressioni e rappresentazioni razziste, sessiste e, più in generale, discriminatorie.
2024
9791255681526
Boi, S., Zona, U., DE CASTRO, M., Bulgarelli, A., Bocci, F. (2024). L’intelligenza artificiale tra replicazione del senso comune e costruzione del consenso. In A.F. S. Pinnelli (a cura di), I linguaggi della Pedagogia Speciale. La prospettiva dei valori e dei contesti di vita (pp. 308-314). Lecce : Pensa Multimedia.
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11590/484607
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact