Nel Machine Learning (ML), il controllo umano continua a essere estremamente importante per la profilazione e la personalizzazione del servizio. Day, Turner e Drozdiak, (2019) evidenziano come gli assistenti virtuali di Amazon intercettino discorsi, gusti, preferenze nelle nostre case. Essi apprendono secondo tre modalità – supervisionata, parzialmente supervisionata e non supervisionata (Sarikaya, 2019) ˗ che prevedono in diversa misura l’intervento umano per l’interpretazione dei dati reperiti. Procedure analoghe sono utilizzate anche da grandi piattaforme commerciali (es. Netflix) dove, dietro la facciata dell’efficienza computazionale, team di etichettatori anonimi umani sono incessantemente al lavoro (sia come esperti del settore sia di operai da catena taylorista) per descrivere le relazioni culturali tra opere cinematografiche e televisive (Finn, 2018). Nei social network (es: Facebook), l’intervento degli algoritmi nel determinare cosa debbano leggere milioni di utenti quando vi accedono è più limitato di quanto creda. Agiscono infatti squadre di persone reali che decidono quali debbano essere gli argomenti caldi su cui far discutere la community (Cosimi, 2016). Da ciò risulta evidente come sia ancora l’essere umano nel ML a elaborare, secondo le convenienze economiche dell’azienda, i dati sotto il profilo culturale pregiudicando irreversibilmente l’autonomia delle scelte compiuti dagli utenti. Ciò implica una attenzione per quel che concerne la formazione delle attuali e future generazioni, la qual cosa è oggetto di studio del gruppo di autori a partire dagli interventi con i futuri insegnanti del CdL in Scienze della Formazione Primaria e dei docenti in servizio.
Zona, U., De Castro, M., Bocci, F. (2020). Un’educazione per le macchine. Il ruolo della mediazione umana nella definizione culturale delle scelte algoritmiche. In A.G. P.G. Rossi (a cura di), Ricerca, scenari emergenze sull’educazione al tempo del digitale, Atti del Convegno internazionale SIRD, Le Società per la società: ricerca, scenari, emergenze 26-27 settembre 2019 (III Tomo, Sezione SIREM (pp. 242-248). Lecce : PensaMultimedia.
Un’educazione per le macchine. Il ruolo della mediazione umana nella definizione culturale delle scelte algoritmiche
U. Zona
;M. De Castro;F. Bocci
2020-01-01
Abstract
Nel Machine Learning (ML), il controllo umano continua a essere estremamente importante per la profilazione e la personalizzazione del servizio. Day, Turner e Drozdiak, (2019) evidenziano come gli assistenti virtuali di Amazon intercettino discorsi, gusti, preferenze nelle nostre case. Essi apprendono secondo tre modalità – supervisionata, parzialmente supervisionata e non supervisionata (Sarikaya, 2019) ˗ che prevedono in diversa misura l’intervento umano per l’interpretazione dei dati reperiti. Procedure analoghe sono utilizzate anche da grandi piattaforme commerciali (es. Netflix) dove, dietro la facciata dell’efficienza computazionale, team di etichettatori anonimi umani sono incessantemente al lavoro (sia come esperti del settore sia di operai da catena taylorista) per descrivere le relazioni culturali tra opere cinematografiche e televisive (Finn, 2018). Nei social network (es: Facebook), l’intervento degli algoritmi nel determinare cosa debbano leggere milioni di utenti quando vi accedono è più limitato di quanto creda. Agiscono infatti squadre di persone reali che decidono quali debbano essere gli argomenti caldi su cui far discutere la community (Cosimi, 2016). Da ciò risulta evidente come sia ancora l’essere umano nel ML a elaborare, secondo le convenienze economiche dell’azienda, i dati sotto il profilo culturale pregiudicando irreversibilmente l’autonomia delle scelte compiuti dagli utenti. Ciò implica una attenzione per quel che concerne la formazione delle attuali e future generazioni, la qual cosa è oggetto di studio del gruppo di autori a partire dagli interventi con i futuri insegnanti del CdL in Scienze della Formazione Primaria e dei docenti in servizio.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.