Nuovo appuntamento con la rubrica Scienze per la Scuola: oggi parliamo di ChatGPT e didattica.
Gli strumenti di intelligenza artificiale generativa, cioè capaci di generare contenuti e non solo di elaborarli, possono essere utili in vari campi, compresi la didattica e lo studio personale.
Ci sono sicuramente grandi opportunità sul piano della personalizzazione degli apprendimenti o dell’assistenza tutoriale (almeno, entro certi limiti), ma possono presentare insidie in altri aspetti.
Si dice, ad esempio, che un agente conversazionale (così lo chiamano) come ChatGPT può essere utile per generare esercizi o prove di verifica. Ho provato a testarlo su questo punto e presento qui qualche esito.
Io: “Puoi elaborare un esercizio grammaticale sull’uso degli accenti nella lingua italiana (es.: monosillabi o parole tronche)?”
ChatGPT: “Indica se le seguenti parole tronche o monosillabi richiedono o meno l’accento grafico”.
Per brevità, aggiungo, alla destra delle singole parole proposte come test dal dispositivo, anche le risposte che esso ha dato, sottolineando gli errori che ha compiuto:
“Però (Richiede l’accento)
Cosa (Non richiede l’accento)
Già (Non richiede l’accento)
Più (Non richiede l’accento)
Uovo (Non richiede l’accento)
Quà (Richiede l’accento)
Città (Non richiede l’accento)
…
Faccio notare al dispositivo che ha fatto alcuni errori.
ChatGPT: “Hai ragione, e mi scuso per l’errore. La parola “qua” è un monosillabo […] la forma corretta è “qua” senza l’accento grafico. Mi scuso ancora per l’errore nella mia risposta precedente. Grazie per la correzione”
Cambio allora argomento: “Puoi proporre qualche esercizio sull’uso delle proposizioni subordinate concessive (sintassi del periodo, grammatica italiana)?”
ChatGPT: “Certamente! […] Completa le seguenti frasi inserendo la proposizione subordinata concessiva corretta:
1) ____ (Sebbene piovesse), sono uscito per fare una passeggiata.
2) ____ (Pur avendo fame), non voleva mangiare.
3) ____ (Anche se faceva freddo), siamo andati in montagna.
4) ____ (Per quanto fosse difficile), ha superato l’esame brillantemente […]”
Qui, per fortuna, il dispositivo pare ferrato e non sbaglia.
Quando però gli chiedo di impostare un esercizio-verifica con le proposizioni limitative, mi propone un esercizio drammaticamente composto solo di proposizioni relative:
“1) La città che tutti conoscono è famosa per la sua storia.
2) La cosa che mi ha sorpreso è il suo comportamento.
3) Il problema che abbiamo affrontato era molto complesso.
Ecc.
ChatGPT però, conosce, almeno sul piano teorico, le proposizioni limitative, perché è in grado di darne una definizione: ChatGPT: “Questo esercizio si concentra sull’uso delle proposizioni subordinate limitative, che introducono una restrizione o una precisazione sul nome o sul verbo della proposizione principale”.
Gli faccio sommessamente notare che però di proposizioni limitative non se n’è vista fino a quel momento neanche l’ombra e il dispositivo, educatamente e con qualcosa di simile ad una certa contrizione, si scusa. Tuttavia, a fronte di mie successive richieste, persevera diabolicamente nel propormi proposizioni relative al posto delle limitative che avevo richiesto. Anche dopo che gli avevo fatto degli esempi molto semplici di proposizione limitativa. Ma non c’è verso.
Ormai piuttosto scoraggiato, gli chiedo di fare l’analisi del periodo di una frase che contiene una proposizione limitativa, per vedere se (almeno) la sa riconoscere (“Per quanto concerne questo aspetto, non so molto“). E la riconosce:
ChatGPT: “La frase è composta da due proposizioni: 1) “Per quanto concerne questo aspetto” è una proposizione subordinata limitativa che introduce una precisazione sull’argomento della proposizione principale. 2) “Non so molto” è la proposizione principale.”
Arriviamo così a questa ambigua conclusione: il nostro simpatico ed educato agente conversazionale a) ha una conoscenza semantica (astratta) delle proposizioni limitative; b) è in grado di riconoscerle se le incontra, ma c) non è in grado (almeno allo stato attuale e nella versione gratuita) di generarne degli esempi. Quindi, guai a chiedergli di proporre esercizi di questo tipo agli alunni. E questo può valere per chissà quanti altri argomenti disciplinari.
Se l’insegnante intende usare questo dispositivo, occorre pertanto che individui preventivamente su quali richieste di generazione di esercizi ChatGPT può effettivamente dare un aiuto. Altrimenti, può creare ulteriori disastri nel processo di apprendimento degli alunni. E ci manca solo questo.
Teniamo però conto di un dato di fatto: gli studenti stanno già comunque cominciando ad usare regolarmente, e autonomamente, ChatGPT nel loro studio. Speriamo bene.
Il presente articolo fa parte della rubrica Scienze per la Scuola, curata da Giovanni Morello. Vedi anche gli altri articoli pubblicati:
, L’articolo originale è stato pubblicato da, https://www.tecnicadellascuola.it/chatgpt-puo-fornire-al-docente-esercizi-di-grammatica-pronti-i-rischi-di-mandare-ulteriormente-in-confusione-gli-alunni, Attualità,chat gpt,Docenti,Evidenza,Grammatica italiana,Intelligenza artificiale,scienze per la scuola,Studenti, https://www.tecnicadellascuola.it/feed, Giovanni Morello, Autore dell’articolo