152 indicatori misurano le aree di eccellenza e di criticità del sistema scolastico

Version imprimable de cet article Version imprimable

La graduatoria provincia per provincia di TUTTOSCUOLA sulla qualità del sistema d’istruzione italiano

Una miniera di dati sulla scuola, una fotografia (impietosa) dello stato della scuola in Italia, un’iniziativa coraggiosa, unica finora nel contesto scolastico italiano. In questa sede ci limitiamo a discutere gli aspetti metodologici di questa operazione, senza entrare nel merito delle classifiche, talora sorprendenti. Anche a livello internazionale c’erano, fino a pochi anni fa, Stati che rifiutavano orgogliosamente di compararsi ad altri e di misurare la qualità delle proprie scuole. Ritenevano il loro sistema scolastico fosse il migliore al mondo e per giunta incomparabile agli altri. Poi sono giunti gli indicatori internazionali dell’istruzione dei paesi dell’OCSE a smentire queste illusioni. Il colpo mortale alla superbia pedagogica è stato inflitto, dieci anni dopo la pubblicazione del primo insieme di indicatori internazionali dell’istruzione (tradotto in italiano dall’ Editore Armando Armando, Roma, con il titolo "Uno sguardo sull’educazione"), dagli indicatori di risultato estrapolati dai dati dei test PISA e dalle risposte ai questionari PISA per gli alunni e per i dirigenti scolastici. Tuttoscuola ha tentato di fare un’operazione analoga dentro il sistema d’istruzione italiano. Se dovessimo riassumere in una frase l’impressione prodotta da questo meritevole ed immane lavoro diremmo che si ha qui la conferma del fallimento dell’impianto centralistico ed unitario del sistema d’istruzione italiano.

*******************************************************

Un commento al Rapporto di Tuttoscuola sulla qualità nella scuola italiana [1]

Premessa

Nel corso del mese di giugno, alla fine dell’anno scolastico 2006-2007, la rivista Tuttoscuola ha pubblicato un rapporto sulla qualità nella scuola con dati disaggregati per 100 province italiane, raggruppati per le 18 regioni interessate [2] e per 5 macro aree geografiche (Nord/Ovest; Nord/Est; Centro; Sud; Isole).

Il documento presenta 152 indicatori che nelle intenzioni della rivista misurano le aree di eccellenza e di criticità del sistema scolastico italiano. Per sistema scolastico occorre qui intendere il sistema statale, comprensivo di scuola per l’infanzia, scuola primaria, scuola secondaria di primo grado, scuola secondaria di secondo grado. Gli indicatori non riguardano né la scuola privata (benché in taluni indicatori siano incluse le scuole paritarie), né la formazione professionale, né l’apprendistato, né l’educazione degli adulti e nemmeno l’istruzione universitaria.

Il rapporto è organizzato attorno a cinque macro-aree di competenza :

1. Strutture e risorse 2. Organizzazione e servizi 3. Condizioni del personale 4. Livelli di istruzione 5. Risultati scolastici

I 152 indicatori rappresentano ognuno, secondo i compilatori, un elemento di qualità della scuola.

Le graduatorie

Tuttoscuola ha compiuto un’operazione che si è riluttanti a compiere in altri paesi o in altre operazioni analoghe: ha formulato, cioè, una graduatoria di qualità, per usare la terminologia proposta nel rapporto, per ognuno dei 152 indicatori, e ha stabilito una media per province, per regioni e per macro aree. Un’attenzione così pronunciata verso le graduatorie è riscontrabile solo in talune presentazione dei risultati dell’indagine internazionale PISA dell’OCSE.

Nell’introduzione si tenta di attenuare l’importanza riservata alle graduatorie in questo lavoro, mettendo in evidenza la relatività delle classifiche (una regione o una provincia può brillare in un campo ma ricevere un punteggio scadente o essere sotto la media in un altro), tuttavia, l’impostazione generale del lavoro è stata concepita come una competizione tra i livelli intermedi del sistema scolastico italiano.

Le carenze di un sistema centralizzato

Se da un lato si può ritenere contestabile questa impostazione, dall’altro si deve riconoscere che le graduatorie prodotte sono la migliore dimostrazione del fallimento di 150 anni di politica centralistica del Ministero della Pubblica Istruzione in Italia, incapace, malgrado il potere e le risorse a sua disposizione, di garantire un servizio scolastico di equivalente qualità su tutto il territorio nazionale. Vale la pena citare un passaggio dal libro il Cuore di Edmondo De Amicis, pubblicato nel 1886, dunque pochissimi decenni dopo l’unità d’Italia [3], per evocare la funzione che si riteneva dovesse essere quella della scuola nella costruzione dello stato-nazione e di una società giusta:

Il ragazzo calabrese

Allora il maestro gli prese una mano, e disse alla classe: - Voi dovete essere contenti. Oggi entra nella scuola un piccolo italiano nato a Reggio di Calabria, a più di cinquecento miglia di qua. E’ nato in una terra a gloriosa, che diede all’Italia degli uomini illustri, e le dà dei forti lavoratori e dei bravi soldati; in una delle più belle terre della nostra patria, dove sono grandi foreste e grandi montagne, abitate da un popolo pieno d’ingegno e di coraggio. Vogliate bene al vostro fratello , in maniera che non s’accorga di essere lontano dalla città dove è nato; fategli vedere che un ragazzo italiano, in qualunque scuola italiana metta il piede, ci trova dei fratelli. -

Nonostante i limiti di questo primo rapporto di Tuttoscuola, si deve sottolineare la sua rilevanza dal punto di vista diagnostico nei confronti delle insufficienze del centralismo scolastico e quindi la sua importanza a sostegno della necessità di un cambiamento radicale nelle modalità di organizzazione e di gestione della scuola statale italiana. Se fosse necessaria un’ ulteriore prova per documentare l’esigenza improcrastinabile della decentralizzazione scolastica e dello smantellamento del pachidermico Ministero della Pubblica Istruzione, questa è offerta dal rapporto di Tuttoscuola. Non è per altro un caso che un’operazione di questo genere, frutto di un enorme lavoro di raccolta di dati, sia stata effettuata non dal Ministero ma da un’istituzione con statuto privato, il che la dice lunga sui limiti delle strutture ministeriali.

Un primo insieme d’indicatori sullo stato del sistema nazionale d’istruzione

Il rapporto di Tuttoscuola è il primo documento che ambisce a fornire un insieme d’indicatori sullo stato della scuola statale in Italia, ed è pertanto di per sé meritorio ed encomiabile. [4] Questa è la ragione per la quale, nel rendere conto di questo rapporto, si impone un certo riguardo. Non si puo’ cioè comparare questo prodotto ad altri che hanno una lunga esperienza alle spalle e che soprattutto sono il frutto della presenza di un’ampia comunità di specialisti di statistica e di indicatori dei sistemi scolastici, del tutto assente in Italia. Si terrà pertanto conto delle difficoltà incontrate da Tuttoscuola nel realizzare una simile indagine e si userà cautela nelle osservazioni critiche per evitare il rischio di fornire armi a chi attacca con motivazioni e strategie diverse questo genere di lavori, il più delle volte senza cognizione di causa. Ciò premesso, è scientificamente corretto segnalare gli aspetti discutibili di questo lavoro, intavolare un dialogo che sbocchi nella verifica della validità e della pertinenza del metodo adottato e delle considerazioni tratte dai dati raccolti. Nel fare ciò è inevitabile un confronto con studi analoghi che si svolgono da una quindicina d’anni in vari paesi e rilevarne quindi, in termini comparativi, difetti o carenze. La produzione di indicatori dell’istruzione non ha una lunga storia, ma è da almeno quarant’anni che si lavora su questo argomento , non si può quindi non tenerne conto. [5] L’Italia, è vero, non ha partecipato attivamente a questo movimento ( né la ricerca sulla scuola né i servizi del ministero si sono occupati di indicatori), ma questo non è una ragione sufficiente per non confrontarsi con quanto si è fatto finora sul piano internazionale.

Caratteristiche generali

Il rapporto è una vera e propria miniera d’ informazioni tratte da svariate fonti, tutte di origine istituzionale. Tuttoscuola non ha utilizzato nessun dato proveniente da indagini, ricerche e sondaggi condotti da enti privati o accademici. Di per sé, il documento offre la prova che dati sulla scuola italiana ce ne sono a iosa. Basta andare a cercarli e collegarli tra loro, un’operazione che il Ministero non ha mai svolto e nemmeno l’INValSI. C’è un po’ di tutto in questa raccolta, ma la mappa degli indicatori permette di avere una buona idea d’assieme delle informazioni che si possono trovare.

E’ però proprio questa abbondanza di dati, questa esuberanza d’ informazioni che pone alcuni problemi. Si tratta di un difetto classico che si presenta ogniqualvolta si costruisce un insieme d’ indicatori. In generale, quando si intraprende un’operazione come quella che ha prodotto il rapporto di Tuttoscuola si possono anticipare quattro ostacoli seri:


- la validità dei dati usati per costruite gli indicatori;
- i criteri di selezione dei dati che vengono assunti o scartati;
- le ipotesi teoriche di partenza che determinano i criteri di scelta dei dati;
- le modalità di presentazione e divulgazione delle informazioni.

La “pantagruelica indigestione” d’ informazioni che si fa con il rapporto di Tuttoscuola obbliga pertanto a porre alcune domande:

1. Una tale accumulazione di informazioni era necessaria? 2. Con quali criteri sono state messe nel rapporto determinate informazioni? 3. Perché certi dati sono stati presi in considerazione ed altri invece accantonati?

Si potrebbe supporre, partendo da quanto pubblicato nel rapporto, che il criterio di scelta assunto da Tuttoscuola sia stato la qualità nella scuola (e non la qualità della scuola) e che l’ipotesi di partenza sia stata quella di una forte disparità nel livello di qualità sul territorio nazionale. Malauguratamente, il rapporto non contiene nessuna spiegazione del quadro teorico dal quale si è partiti per selezionare gli indicatori e nemmeno nessuna definizione della qualità nella scuola. La polisemia di questo concetto ( in verità piuttosto quello di "qualità della scuola") è accettata da tutti , ma proprio per questa ragione Tuttoscuola avrebbe dovuto spiegare la rappresentazione della qualità scolastica alla base della sua compilazione di indicatori. Questo chiarimento non è un esercizio formale ma un passaggio indispensabile per capire il lavoro e giustificarlo.

Ambiguità alla base

In mancanza di questo chiarimento sui criteri di scelta degli indicatori, il documento non è privo di aspetti ambigui. Ne rileviamo due: il primo riguarda l’impianto centralistico della scuola statale; il secondo l’obiettivo del potenziamento dell’istituzione scuola.

1. La questione della centralizzazione ovviamente connessa al suo rovescio, ossia alla decentralizzazione e, nel caso italiano, alla strategia dell’autonomia messa in atto dall’ Amministrazione centrale. [6] Di primo acchito sembrerebbe che l’insieme dei 152 indicatori proposti da Tuttoscuola sia stato scelto per dimostrare il fallimento del modello centralistico e per valorizzare l’impegno delle regioni, delle province e dei comuni, ossia per evidenziare la vitalità delle istanze periferiche e quindi la validità del modello decentralizzato. La qualità nella scuola, quando c’è, sarebbe da attribuire a queste forze e non al governo dell’amministrazione centrale della scuola. Nell’introduzione (pagina 17) ci si imbatte però in una frase che lascia perplessi e che evidenzia assai bene l’ambiguità nella quale si situa questo insieme di indicatori :

"Un quadro di differenze e distanze che non può non preoccupare, maturato in presenza di un sistema scolastico almeno sulla carta uniforme e omogeneo a livello nazionale, e che il processo in atto di decentramento e rafforzamento delle competenze regionali rischia di rendere ancora più disuguale: una sfida che lo Stato e le Regioni sono chiamate ad affrontare insieme".

Fatta la dovuta precisazione che il processo in corso non è di decentramento bensì di decentralizzazione in un regime di autonomia scolastica, non si capisce perché tale evoluzione rischi di rendere ancora più disuguale il quadro della qualità della scuola. Sulla base di quali premesse e di quali considerazioni si pone questo assioma? Ecco perché il quadro concettuale è importante, proprio per togliere questo genere di ambiguità e per sapere dove mira l’operazione.

2. La seconda ambiguità concerne il potenziamento della natura istituzionale della scuola. Nella conclusione si afferma che "occorre restituire al sistema scolastico italiano una chiara , riconoscibile e riconosciuta dimensione istituzionale." Con un’affermazione del genere, gli autori del rapporto forniscono un’interpretazione dell’insieme degli indicatori da loro proposti. In questo modo confondono però le piste. In effetti, non si sa più bene se questa è l’ipotesi iniziale dalla quale sono partiti (la scuola italiana è un’istituzione debole e gli indicatori servono a reperire i punti di debolezza) oppure se si slitti dalla produzione strutturata di indicatori alla loro interpretazione. Sarebbe auspicabile, questa è almeno la regola, che i produttori di indicatori si astenessero dall’ interpretarli. Loro compito è quello di fornire dati sicuri, certi, verificati, non ambigui, di segnalare il problema politico o sociale che l’indicatore evidenzia per permettere di giudicare la pertinenza dell’indicatore e di produrre tutte le informazioni che consentano ai lettori di interpretare l’indicatore. Il rapporto invece offre un’interpretazione dell’insieme delle indicazioni raccolte, che segnalerebbero la de-istituzionalizzazione della scuola, un tema questo affrontato alcuni anni fa da Giuseppe De Rita in un libretto molto lungimirante, nel quale si denunciava il tradimento degli intellettuali di fronte alle istituzioni dello stato. [7] L’insieme di indicatori presentato nel rapporto di Tuttoscuola non affronta però direttamente questa questione e i dati raccolti non sono tutti in linea con questo obiettivo. Sono dati che alludono indirettamente alla struttura istituzionale. Si tratta di “proxy”, e non di indicatori puntati sulle caratteristiche istituzionali della scuola. Per trattare questo punto in modo conveniente sarebbero stati necessari altri indicatori, come per esempio indicatori sull’insieme delle decisioni riguardanti la scuola prese dal parlamento nel corso di questi ultimi 10 anni, la tipologia di queste decisioni; oppure un indicatore sulla fiducia dell’opinione pubblica nella scuola (informazione forse non raccolta dall’amministrazione centrale) ed infine un indicatore sulla credibilità dei diplomi. Tuttoscuola ha qui forzato la mano. L’intenzione era lodevole ma dal punto di vista metodologico c’è una frattura tra gli indicatori proposti e l’auspicio o la diagnosi presentati nella conclusione del capitolo introduttivo.

Alcuni appunti di natura tecnica

Forniamo di seguito alcune osservazioni di ordine tecnico.

1) L’osservazione principale riguarda la natura di questo rapporto che non presenta, per l’esattezza, un insieme di indicatori. In altri termini, il concetto di indicatori è per così dire “usurpato” e quel che manca è l’insieme, ossia l’articolazione di indicatori selezionati in funzione della loro complementarità . In apparenza, l’insieme c’è, ma quest’insieme è più una collezione di statistiche che non una raccolta di indicatori. Quest’affermazione va un poco attenuata perché in certi casi si indovina la complementarità delle informazioni prodotte che deve concorrere ad attirare l’attenzione sul disfunzionamento del tema osservato, per esempio la dispersione nel corso dell’insegnamento secondario di secondo grado, ma in altri casi non si capisce la giustapposizione di cifre presentate come indicatori, per esempio "patrimonio" scuole" e strutture edilizie". Tra l’altro, in questo caso, non si danno si dà nessun chiarimento sulla componente di queste due categorie di dati (forse tutti in Italia sanno di cosa si tratta), ma è anche d’uopo dire che questi due fattori non concorrono in modo determinante a forgiare la qualità nella scuola. Una scuola povera di strutture può essere un’eccellente scuola e vicevarsa, una scuola lussuosa, può essere una pessima scuola. Ecco perché la giustificazione dell’inserimento di queste categorie di dati nella raccolta di indicatori è essenziale, proprio per spiegare questo tipo di questioni.

Il discorso sarebbe lungo, ma qui basta rinviare alle numerose pubblicazioni di natura teorica dedicate allo sviluppo e alla costruzione di indicatori. Il rapporto di Tuttoscuola è un ibrido, più vicino a un repertorio statistico che non a un insieme d’ indicatori. Vale qui proprio la pena di citare come termine di confronto l’insieme di indicatori francesi pubblicato dalla DEPP ( Direction de l’évaluation, de la prospective et de la programmation) del Ministero dell’Educazione Nazionale intitolato "Géographie de l’école " . Questa indagine è forse, tra quelle realizzate altrove, la più prossima per intenzioni al rapporto di Tuttoscuola. Il documento francese fornisce un’illustrazione cartografica della diversità esistente tra regioni , "académies" e dipartimenti (che sono 100), che manca completamente nel documento di Tuttoscuola. Gli indicatori francesi sono 30 in tutto e sono impostati sulle disuguaglianze dell’offerta formativa sul territorio nazionale. L’impressione che si ricava dal documento di Tuttoscuola è che si sia voluto fornire un’ampia raccolta d’ informazioni sulla qualità nelle scuole (quindi un obiettivo diverso da quello francese) senza però un indirizzo preciso, partendo dal presupposto che qualsiasi dato sulla scuola dica qualcosa sulla sua qualità e debba quindi essere assunto. In molti casi, come si è detto, non si ha più a che fare con indicatori, ma con statistiche.

2) Il secondo rilievo riguarda il metodo utilizzato per trattare i dati. Indubbiamente Tuttoscuola ha dato prova di originalità e ha proposto soluzioni raffinate per passare dai dati lordi ai punteggi e per costruire degli indici che rendono più comprensibile la lettura delle cifre. Gli autori sono stati abili nel costruire tabelle che combinano l’informazione in percentuale e quella tradotta in punteggi, con cui calcolare le medie per regioni. Ciò detto, occorre però sottolineare un limite non irrilevante connesso a questa metodologia: l’attribuzione dello stesso valore a dati e informazioni che hanno invece una rilevanza diversa dal punto di vista della qualità nella scuola. In altri termini si appiattiscono i valori. Le aree di competenza e i vari quadri nelle quali esse sono suddivise devono essere ponderati in funzione della loro rilevanza dal punto di vista della qualità. L’area “strutture e risorse” non ha lo stesso "peso" dell’ “organizzazione e servizi” oppure delle “condizioni del personale”. Inoltre queste variabili non dipendono tutte dalle stesse autorità, il che dovrebbe indurre a distinguere la loro importanza a seconda del "peso" relativo all’interno del sistema, della sede in cui le decisioni si prendono. Ma questa è ancora un’altra questione. In ogni modo, nonostante l’allettante procedura adottata per trattare i dati, si dovrebbe a questo punto verificare con specialisti di statistica, che non mancano in Italia, quanto sia pertinente il metodo adottato. I risultati presentati potrebbero essere perfettamente attendibili, ma potrebbero anche subire modificazioni sostanziali se gli indici fossero costruiti in un altro modo. Su questo punto occorre lasciare la parola agli specialisti di statistica, ma non si può non avanzare il dubbio di una possibile deformazione delle graduatorie dovuta al metodo di calcolo.

3) Un terzo rilievo riguarda la parte più delicata e sensibile delle informazioni, ossia quella concernente i risultati scolastici, a cui è dedicata la macro-area numero 5. In questa graduatoria la regione Friuli-Venezia Giulia si classifica al primo posto, mentre fanalino di coda è la Sardegna. Orbene, vale la pena di dettagliare i risultati di cui si sono serviti i compilatori per giungere a questa classifica:

- Livelli di apprendimento 1° ciclo (rilevati dall’INValSI nel 2006)
- Livelli di apprendimento 2° ciclo (rilevati dall’INValSI nel 2006)
- Esiti scolastici (esiti degli scrutini nel 1° e 2° ciclo effettuati al termine dell’anno scolastico 2005-2006)
- Diplomati nella sessione di esami di Stato del 2006

La pertinenza di questi risultati per costruire indicatori che rendano conto del profitto scolastico e quindi dell’efficacia dell’istruzione è dubbia. Non è il caso qui di entrare in una discussione dettagliata su tale materia. I compilatori hanno dovuto utilizzare quello che, per così dire, “forniva l’oste”. Talora sono inclusi gli allievi delle scuole paritarie, talora no. La lettura e l’uso di queste informazioni risultano alquanto delicati, ma il rapporto non esita, nonostante le forti riserve che si possono esprimere sulla comparabilità dei dati, a compilare graduatorie per province e regioni. Il tutto è calcolato sulle medie. Non c’è nessuna informazione sulle deviazioni standard dalla media e nessuna presentazione delle variazioni tra risultati massimi e minimi. Manca qualsiasi interfaccia con la composizione socio-economica degli studenti di ogni regione. L’insieme di questa sezione non appare pertanto all’altezza dei criteri di qualità riconosciuti a livello internazionale per la presentazione di dati sui risultati. Tra l’altro nel rapporto si citano sovente i risultati dell’indagine PISA-OCSE, utilizzati come criterio per validare i dati italiani. Se questi presentano un profilo simile a quelli dell’indagine PISA vengono ritenuti credibili. Questa associazione è piuttosto dubbia (anche il Ministero della Pubblica Istruzione ha compiuto questo errore). La credibilità e la validità dei risultati italiani non può essere dedotta dalla similitudine con i dati di un’indagine internazionale molto speciale, che non è stata impostata in funzione dei curricoli italiani e che non misura gli apprendimenti scolastici. Dispiace che i compilatori del rapporto non abbiano avuto il coraggio di lasciare in bianco le caselle che non potevano essere riempite perché mancavano dati pertinenti. L’assenza di informazioni attendibili sui risultati degli studenti italiani è un problema noto ed è un indicatore eloquente. Si sarebbe potuto approfittare dell’occasione per fare chairezza sulla qualità della base di conoscenza sulla quale si appoggiano le istituzioni che governano la scuola in Italia.

Esistono, per esempio, dati sui risultati degli allievi italiani assai interessanti ma non utilizzati qui perché il campione che è servito per raccoglierli non permetteva probabilmente la disaggregazione dei risultati fino al livello provinciale: i dati delle indagini IEA quali TIMSS e ICONA (o PIRLS secondo l’acronimo internazionale). Queste indagini forniscono almeno informazioni a livello nazionale e probabilmente per macro-aree geografiche, che avrebbero potuto essere adoperati per costruire indicatori inseribili in un insieme d’ indicatori sulla qualità della scuola italiana.

Alcuni rilievi sugli aspetti formali del rapporto

Il primo punto da evidenziare è la sobrietà della costruzione del rapporto che è suddiviso in cinque macro-aree, ciascuna delle quali è ripartita in quattro quadri (ad eccezione della macro-area "Livelli d’istruzione", il che comprova la difficoltà di raccogliere dati per il solo sistema scolastico), ed ogni quadro comprende otto indicatori o meglio otto soggetti con la funzione di indicatore. La mappatura degli indicatori, come vengono chiamate le informazioni presentate nel rapporto, è rigorosa e ben comprensibile.

La presentazione formale degli indicatori rispetta pure un modello coerentemente applicato lungo tutto il rapporto. Ogni indicatore è presentato in quattro pagine: una pagina di commento-spiegazione, nella quale si mettono in evidenza, ma non sempre, in un riquadro la graduatoria per province e per regioni, una pagina con due tabelle di sintesi, una per regioni e l’altra per macro-aree geografiche, ed infine una doppia pagina con una tabella densa di dati per ogni provincia. Anche la sezione introduttiva di ogni macro-area tematica rispetta questo schema di presentazione, che è simile a quello utilizzato per esempio nei due rapporti sul sistema scolastico prodotti annualmente dal Ministero dell’educazione francese : "L’Etat de l’école" et "La Géographie de l’école" , nei quali però il numero degli indicatori non supera i 30. Si tratta di una formula tipografica assai rigida che ha comunque il pregio di fornire una buona sintesi delle informazioni e di evidenziare bene la sostanza di ogni indicatore.

Questa impostazione, però, avrebbe dovuto essere accompagnata da un allegato tecnico nel quale fornire le informazioni riguardanti il calcolo degli indicatori, le eccezioni, i dati mancanti ( a prima vista sembra he non ce ne siano affatto), i problemi di calcolo, le specificità delle varie fonti. L’assenza di questo allegato attenua il valore scientifico del rapporto. Occorre qui precisare che la produzione degli indicatori non può essere ridotta ad un’ un’operazione politica e non è nemmeno un esercizio tecnico, ma è il risultato di una ricerca e deve rispettare quindi i criteri di qualità propri della ricerca scientifica. Il rapporto, così come è presentato, dà invece l’impressione di un’operazione soprattutto politica con la spettacolare e provocante insistenza sulle graduatorie per ogni indicatore, il che mette però parzialmente in ombra il lavoro scientifico che ha sotteso la sua realizzazione e la credibilità dei dati presentati.

Un terzo rilievo concerne l’assenza di qualsiasi grafico. Il rapporto contiene solo tabelle. Questa opzione lascia perplessi, perché l’informazione fornita sotto forforma di grafico è molto più eloquente che non quella contenuta in macro- tabelle di due pagine con 100 strisce incrociate, talora, con otto o dieci colonne. La traduzione sotto forma di grafici delle tabelle non è un esercizio semplice, non può essere svolta automaticamente da un’applicazione informatica. I grafici devono essere disegnati volta per volta e ciò facendo si è obbligati a riflettere su cosa si vuole evidenziare e rappresentare e fare dunque delle scelte, perché non si possono inserire nei grafici tutte le informazioni statistiche delle tabelle.

Infine due commenti minori che nascono dall’esigenza di aprire il sistema scolastico italiano verso la scena internazionale. Si capisce che il rapporto è stato prodotto per il solo pubblico italiano che conosce a menadito il proprio sistema d’istruzione nonché il lessico scolastico in auge in Italia. Sarebbe però stato molto utile inserire almeno alcuni elementi che facilitassero non tanto il confronto con altri sistemi scolastici quanto la possibilità di lettura per un pubblico, per quanto ristretto, di specialisti di altri paesi. Si allude qui all’inserimento in primo luogo di un organigramma del sistema scolastico italiano nel quale si sarebbe potuto evidenziare tipograficamente il campo scolastico considerato nel rapporto; poi, sarebbe stato assai utile collegare, secondo una modalità appropriata che non appesantisse la presentazione, livelli e tipi d’istruzione trattati nel rapporto con la classificazione internazionale dei programmi scolastici deliberata dall’UNESCO ed utilizzata mondialmente per standardizzare la presentazione dei dati statistici e degli indicatori. Un’informazione di questo tipo avrebbe facilitato l’aggancio del rapporto agli studi internazionali. [8]

Conclusione

In conclusione si potrebbero fornire alcune raccomandazioni per la realizzazione della seconda edizione di questo rapporto, in particolare:

- Allargare il campo coperto dal rapporto e non limitarsi unicamente al settore scolastico inteso nell’accezione italiana, includendo per lo meno la transizione verso il settore universitario [9], l’educazione degli adulti, i risultati della scolarizzazione provenienti dalla transizione dalla scuola al lavoro. [10] Evidentemente queste informazioni non riguardano la "qualità nella scuola" ma la qualità della scuola ed è certamente questa la ragione per la quale non sono stati utilizzati. Includere nell’insieme la formazione professionale ( secondo la terminologia italiana). In nessun altro paese sarebbe possibile ignorare questo settore del sistema scolastico, che invece in Italia è sistematicamente ignorato nei documenti sulla scuola.

- Ripulire gli indicatori riducendone il numero: 152 sono troppi. Non è pensabile, ad esempio, che dirigenti politici, parlamentari che si occupano di scuola, responsabili dei sindacati scuola e delle associazioni professionali analizzino tutti questi indicatori, né d’altra parte, potranno accontentarsi delle graduatorie che in un certo modo fanno le veci di una sintesi dei risultati. Le graduatorie sono spettacolari ma traditrici, come viene spiegato, del resto, nella stessa introduzione del rapporto.

- Limitarsi a fornire le spiegazioni tecniche , in particolare sulla natura dei dati utilizzati, evitando le interpretazioni

- Costruire indici complessi per indicatore e rappresentarli sotto forma grafica

- Escludere l’uso di dati di valenza dubbia e non esitare a lasciare in bianco le caselle qualora i dati fossero mancanti o non fossero validi. Le province di Bolzano e di Trento hanno dati eccellenti che avrebbero potuto essere usati anche se non comparabili con quelli delle altre province.

- Inserire un allegato che permetta di passare dalla nomenclatura italiana alla classificazione internazionale. Si tratta qui di svolgere un’opera pedagogica, dando un piccolo contributo allo sviluppo di un lessico meno obsoleto.

- Fornire in nota informazioni dettagliate sulle modalità di calcolo degli indicatori. I riquadri che danno informazioni della natura di ciascun indicatore non bastano. Ciò vale soprattutto per le macro-aree relative a “Livelli di istruzione” e “Risultati scolastici"

[1] Tuttoscuola, Primo rapporto sulla qualità nella scuola. Tutti i dati provincia per provincia. Roma 2007.

[2] Mancano i dati di due province a statuto speciale (Bolzano e Trento) e quelli della Val d’Aosta.

[3] 1861

[4] Alcune regioni, come il Piemonte o l’Emilia-Romagna, hanno pubblicato in anni recenti rapporti sullo stato della scuola a livello regionale che si possono considerare come dei proto-tentativi di produzione di un insieme d’indicatori regionali dell’istruzione.

[5] Si veda l’articolo seguente: Le niveau d’huile, le moteur et la voiture : les enjeux d’une évaluation de la qualité par les indicateurs. Presentazione effettuata in occasione del seminario internazionale sulla valutazione delle politiche scolastiche organizzato dall’Associazione internazionale di lingua francese di sociologia e dall’Unità di ricerca “Education & Politiques” dell’ Istituto Nazionale Francese di Ricerca pedagogica (INRP), Lione, 12-13 settembre 2005. L’articolo è stato pubblicato nella rivista “Education et Société”, Revue Internationale de sociologie de l’éducation, no. 18, 2006/2, 141-161.

[6] Vale la pena ricordare che non esiste una sola forma di strategia verso l’autonomia come non esiste un solo tipo di autonomia delle scuole. In Italia se ne è scelto uno, ma occorre rendersi conto che non era il solo possibile e quindi è necessario chiedersi perché si è scelto questo tipo nonché la modalità adottata per realizzarla e non altri.

[7] De Rita Giuseppe (2002): Il regno inerme. Società e crisi delle istituzioni. Einaudi, Torino. Anche il sociologo francese Dubet ha dedicato e pubblicato nello stesso anno un ampio studio a questo tema, nel quale si parla molto dell’istituzione scolastica: Le Déclin de l’institution, Seuil, Parigi, 2002

[8] La classificazione internazionale tipo dell’educazione è una nomenclatura che permette di comparare i vari programmi nazionali e di standardizzare la produzione statistica sull’insegnamento. L’acronimo utilizzato per designarla è CITE in francese e ISCED (International Standard Classification of Education) in inglese.

[9] Per esempio, la scelta delle facoltà in funzione dei diplomi e dei punteggi negli scrutini, usando i dati di Alma Mater

[10] La durata per trovare un’occupazione in funzione del diploma e del livello d’istruzione; corrispondenza tra occupazione e formazione ricevuta ; durata del periodo di disoccupazione dei giovani diplomati; retribuzione per tipo e livello d’istruzione. I dati di questo tipo sono raccolti e trattati dall’ ISFOL.

Les documents de l'article

De_Amicis.jpg