Linguaggi artificiali globali

09-Second-Life-Euro-script-installation

Il futuro del linguaggio è alquanto incerto: mentre si estinguono centinaia di lingue locali, l’Inglese è divenuto minoritario tra gli utenti di Internet. Nel frattempo la lingua sta per diventare la principale interfaccia artificiale nella comunicazione tra l’uomo e la macchina e tra gli stessi uomini mediante i traduttori automatici. Sono in arrivo i designer del linguaggio globale?

La questione, di natura strettamente culturale, può essere collegata anche alla discussione sullo sviluppo semantico del web: nella rete globale del futuro i linguaggi rimarranno quelli nazionali tradizionali, o si affermerà una lingua artificiale universale?

“Latino es lingua internationale ad tempore de imperio Romano, per toto medio aevo, et in scientia usque ad ultimo seculo. Mathematicos Leibniz (1646-1716), Newton (1643-1727), Eulero (1707-1783), Gauss (1777-1855), etc., scribe quasi semper in Latino.
Hodie quasi omne auctore scribe in propria lingua nationale, id es, in plure lingua neolatino, in plure germanico, in plure salvo et in nipponico. Tale multitudine de linguas, in labore de interesse commune ad toto humanitate, constitue magno obstaculo ad progressu”.

G. Peano

QUALI LINGUAGGI PER LA RETE GLOBALE DEL XXI SECOLO?
I linguaggi naturali subiscono mutazioni profonde sotto l’impatto delle telecomunicazioni: le lingue si mescolano, si scambiano termini ed espressioni, ma al tempo stesso i linguaggi più potenti tendono ad imporsi su quelli più deboli.
Si prevede nei prossimi decenni una forte riduzione del numero e della diffusione delle lingue minori, a vantaggio di quelle più potenti e soprattutto più dotate di strumenti di telediffusione.
Storicamente si sono già succeduti grandi imperi linguistici: dal latino dell’impero romano, sopravvissuto nella religione e nella cultura per molti secoli, all’arabo o all’inglese coloniale. Lo stesso vale per i sistemi di scrittura: si pensi alla diffusione dell’alfabeto latino, che d’altra parte ha adottato dagli arabi il sistema di numerazione, ma anche al successo della scrittura ideografica cinese, capace di superare le differenze linguistiche.
Ma che succederà tra trenta o tra cinquant’anni, quando la terrà sarà sempre più cablata e le telecomunicazioni ci consentiranno un continuo contatto con altre lingue ed altre culture?
E’ difficile immaginare cosa accadrà al linguaggio del World Wide Web quando, tra alcuni anni, la maggior parte degli utenti non sarà anglofona.
Quali linguaggi artificiali, quali scritture tecnologiche si imporranno nel XXI secolo?
Qualsiasi risposta è di certo azzardata.
Molti sostengono la vittoria finale dell’inglese, che sarebbe destinato a diventare l’unica lingua universale del pianeta.
Ma nemmeno l’inglese può sottrarsi a profonde trasformazioni indotte dalla diffusione globale e dall’impatto tecnologico. Ad esempio, uno dei suoi fattori critici è la forte distanza tra la pronuncia orale e la scrittura, una differenza destinata a diventare critica con l’avvento dei sistemi di comando vocale e traduzione automatica speech-to-text.
L’alfabeto latino stride con la fonetica anglosassone, e tra i due canali linguistici non si è mai trovato un equilibrio corretto.
Recentemente ad esempio in Germania si è introdotta una drastica semplificazione dell’ortografia del tedesco, per agevolarne l’uso e la diffusione.
Un fatto come questo deve far riflettere chi considera la lingua come un patrimonio immutabile da tutelare.
Il futuro del linguaggio diventa ancora più complesso se si introduce la questione della comunicazione tecnologica, che segue logiche inedite e risponde ad esigenze proprie.
Occorre procedere con cautela in questo terreno, e soprattutto dando spazio ad una profonda riflessione e ad un dibattito culturale di ampie vedute.

LINGUAGGI INFORMATICI A LIVELLO DELL’UOMO
I prossimi linguaggi globali non potranno prescindere dal rapporto con la tecnologia. D’altra parte, anche in passato il successo delle lingue globali è stato legato alla tecnica: solo l’efficacia dell’alfabeto latino ha permesso alla lingua latina di diffondersi e di restare codice ufficiale della cultura per secoli.
Ciò è accaduto anche riguardo alla tecnica araba di numerazione.
Nel mondo dei computer il linguaggio si comporta in modo diverso rispetto alla comunicazione umana ordinaria.
La comunicazione uomo-macchina adotta varie risorse espressive: linguaggi di programmazione, interfacce con menù a cascata, metafore iconiche.
Fin a ieri la gran parte della programmazione dei computer avveniva con codici di basso livello, convenzionali e astratti, che richiedevano personale altamente specializzato.
Ora però la tendenza evolutiva del software in corso rende disponibili agli utenti linguaggi di sempre più alto livello, molto vicini alla lingua naturale (che nella gran parte dei casi è l’inglese).
Ciò accorcia le distanze tra uomo e computer, e al tempo stesso allarga la fascia degli utenti dell’informatica.

GRAMMATICHE ARTIFICIALI
I termini utilizzati attualmente dall’informatica sono quelli del vocabolario inglese, ma la grammatica viene ancor più semplificata (d’altra parte, l’inglese possiede già una grammatica essenziale).
In questa grammatica artificiale vengono soppressi gli elementi accessori, come gli articoli, a meno che non abbiano una funzione logica determinante.
Inoltre il ruolo dei termini deriva prima di tutto dalla posizione, tenendo conto che si tratta quasi sempre di frasi di tipo imperativo (vai, collega, cancella) in cui il verbo è posto all’inizio.
Di questo passo la comunicazione linguistica uomo-macchina diventerà sempre più accessibile; e ciò diventa cruciale anche con l’affermazione della sintesi vocale e del comando verbale: tra poco parleremo ad alta voce con i computer, e questi dovranno capirci per poter rispondere e per eseguire i nostri comandi.

LINGUAGGI SPAZIO-OGGETTUALI
Altri moduli grammaticali addirittura non funzionano con frasi sequenziali, ma connettendo termini e oggetti che sono disposti nello spazio.
E’ il linguaggio del sistema WIMP (Windows, Icons, Mouse, Pull Down Menus): l’utente seleziona un comando, questo apre nuove possibilità espressive e operative, e così di seguito.
Ad esempio, si seleziona nel menù sopra lo schermo un comando; PAINT, e questo apre un sottomenù di altre funzioni, tra le quali l’utente sceglie ad esempio SELECT ALL. Questa operazione rende possibile altre azioni, come INVERT, TRACE EDGES, FLIP VERTICAL.
In questo caso la frase può essere descritta con la sequenza PAINT-SELECT ALL-INVERT (immagine – seleziona tutto – inverti) e l’operazione consiste nella selezione di un’immagine, che viene poi invertita dal bianco al nero.
L’uomo che ha composto questa frase in realtà non si è reso conto di avere creato una espressione: semplicemente ha voluto compiere una operazione.
I confini tra linguaggio,pensiero e azione si fanno molto sottili.
Ciò accade anche nella realtà: IO MANGIO LA MELA può essere sia una frase, che un’azione. Dipende se collega solo termini o anche oggetti reali.
In certi casi uno dei termini della frase artificiale non è una parola, ma un oggetto, un’icona: OBJECT-NEW BUTTON – (BUTTON).
Ponendo in sequenza le due funzioni “oggetto” e “nuovo pulsante” appare nello schermo un pulsante reale, che a sua volta è disponibile ad altre frasi operative che lo definiscono.
A volte la frase comincia con un oggetto (un pennello, un righetto) e continua con dei termini che definiscono le proprietà dell’oggetto stesso.
L’utente non avverte nulla di ciò che avviene all’interno della macchina: semplicemente formula delle frasi e persegue degli obiettivi.

INGLESE “SINE FLEXIONE”
Di fatto i linguaggi correnti dell’informatica sono già molto simili ad un inglese semplificato, un inglese “sine flexione”.
Nella storia dell’uomo sono numerosi i casi di linguaggi che da naturali diventano “artificiali”: si pensi al latino, che da lingua viva al tempo dei romani diventa lingua morta ma funzionale per la cultura scientifica e filosofica del medioevo. Gli uomini la imparavano a scuola e la usavano come un codice internazionale.
Un altro caso è quello dei numeri arabi, un codice artificiale nato all’interno di una cultura ma che ormai si è imposto in tutto il mondo. Che potremo fare ormai, senza i segni numerici 0123456789 di Al Kuwaritzmi?

L’INTERLINGUA
Alla fine del secolo scorso alcuni logici, tra i quali Peano, avanzano l’ipotesi dell’INTERLINGUA: nella comunità scientifica internazionale sarebbe di enorme utilità l’adozione di un linguaggio comune universale, al posto delle lingue nazionali correnti (italiano, giapponese, inglese, tedesco).
Viene proposto, in continuità con il passato, il LATINO SINE FLEXIONE: una versione semplificata del latino che fino all’800 veniva utilizzato da molti esponenti della scienza di tutto il mondo.
L’ipotesi, ispirarata anche alla lingua artificiale di Leibniz, venne sviluppata con molta lucidità, e presenta degli elementi estremamente attuali.
Oggi, con l’avvento del computer, i linguaggi artificiali sono all’ordine del giorno e non servono solo ad una ristretta comunità di scienziati, ma a masse sempre crescenti di utilizzatori di computer.
Diventa sempre più urgente l’elaborazione di un linguaggio artificiale universale, per una comunicazione non solo tra gli uomini e le macchine, ma anche all’interno di reti telematiche internazionali sempre più diffuse e complesse.
L’Europa è lo scenario ideale per questo tipo di ricerca.

ZAMENHOF E L’ESPERANTO: LA FONETICA STANDARD
Quanto all’idea dell’Esperanto, il linguaggio artificiale universale ideato da Zamenhof, è opportuno sospendere i giudizi affrettati correnti.
Oggi i computer ci propinano normalmente linguaggi “artificiali” di ogni genere (Pascal, Basic, C, Prolog…), che fanno ormai parte del lavoro e della comunicazione di ogni giorno.
Per chi domani vorrà superare le barriere linguistiche proponendo un codice verbale internazionale alcune intuizioni di Zamenhof rimangono cruciali.
Ad esempio quella del “lessico comune”: confrontando i vocabolari delle principali lingue europee ci si rende conto che esistono molte centinaia di termini estremamente simili (super, termo, meteo, maxi,…) . Si tratta delle radici greche e latine che continuano ad essere usate soprattutto in campo scientifico ma anche letterario, giuridico, tecnico, religioso…
Tenendo conto che le lingue europee sono utilizzate nelle Americhe, in Australia ma anche in molte altre parti del mondo, questo nucleo comune della lingua culturale europea potrebbe un giorno candidarsi come lessico universale.
Ma come si pronuncerà questa lingua futura? Zamenhof propone il modello dell’Italiano: tra lettere e suoni ci dovrà essere una corrispondenza stretta, un solo modo di pronunciare. Si dovrà evitare che accada come in Inglese in cui ci sono sette modi di scrivere la “i”, molte lettere sono silenziose, l’accentazione varia in modo imprevedibile.
Zamenhof crede in una fonetica standard.
Tutte riflessioni tutt’altro che trascurabili, visto che la parola è il principale media dell’uomo.
Anche quando si parlerà con i computer, a livello internazionale, sarebbe molto comodo disporre di regole internazionali per la pronuncia delle lettere: uno standard fonetico internazionale.

JOYCE, FREUD, MARINETTI: DENOMINATORI PLANETARI
Entrando in campo letterario, altre suggestioni che provengono dal 900 possono lanciare alcune luci sull’evoluzione del linguaggio nel XXI secolo.
D’altronde, come insegna Dante, il ruolo degli scrittori nel forgiare le lingue spesso è tutt’altro che trascurabile.
Nei suoi ultimi libri, lo scrittore irlandese Joyce mescola parole ed espressioni di tutto il mondo. Le sue parole sono “parole-mondo”, termini nei quali risuonano radici, elementi, echi di utte le lingue esistenti.
Con ciò si evidenzia una delle tendenze dlla comunicazione moderna: il mescolarsi delle parole (blending, fusione), che crea dialetti ibridi (pidgin).
Secondo Mc Luhan l’occidente alfabeta sarà sommerso da una era “orale e tribale”, in cui le lingue tenderanno a mescolarsi e confondersi continuamente.
Freud invece parla di “chimica sillabica”: nell’inconscio i termini si fondono, per dare vita ad aggregati più ricchi di significato.
In ogni caso il linguaggio può diventare una materia plasmabile, come le “parole in libertà” dei futuristi.
Leggendo i manifesti di Filippo Tommaso Marinetti si trovano numerosi elementi di interesse attuale e in particolare informatico: si pensi all'”abolizione della sintassi” (siamo vicini a certi linguaggi per computer) o alla fusione delle parole e delle lettere con segni e immagini.
Un filone di ricerca per un lessico internazionale passa attraverso il setaccio delle lingue esistenti, individuando i termini che, nati in una lingua nazionale, si sono affermati su scala globale: ad esempio SPORT, KAMIKAZE, GUERRILLA, STOP, GOLPE.
Questi “denominatori comuni” a livello planetario potranno essere utilizzati come segnali nello scambio telematico delle informazioni.

IL DESIGN DEL LINGUAGGIO: UNA SFIDA DEL XXI SECOLO?
L’ipotesi di partenza per il design di un linguaggio artificiale globale, facilmente verificabile, è che esistano delle radici paleografiche comuni a tutte le lingue europee. Infatti, anche se i ceppi linguistici europei sono diversi (neolatino, slavo, anglosassone), tuttavia nel corso della storia culturale europea per molti secoli (impero romano, medio evo), gli intellettuali di tutto il continente utilizzavano la stessa lingua, il latino, che a sua volta contiene molti elementi del greco.
Le somiglianze non sono molto evidenti nella lingua orale di tutti i giorni, ma sono enormi in campo scientifico e tecnologico.
Esistono numerosissimi termini radicali (almeno 3000) di origine greco-latina tuttora utilizzati nei vocabolari europei. Pensiamo a EQUAL, QUANTUM, INTER, MONO, ERROR, BIO, TERMO, MACRO, MICRO, LOGO, GRAFO, ecc.
Tutti questi termini sono presenti anche nella cultura informatica internazionale. Inoltre i 3000 termini comuni possono essere combinati, per formare moltissime altre parole (GEO-GRAFO, GRAFO-LOGO, GEO-TERMO, ecc.).
Ebbene, da una attenta analisi della comunicazione contemporanea si può evidenziare una continua emersione di queste radici comuni, ad esempio nella denominazione di prodotti, progetti , messaggi a livello internazionale: CROMA, DIGITAL, AEROBIC, MINI, SILVA, ARCHEO, METEO, TELEVIDEO, ecc.).
Quando si deve creare un nuovo nome destinato alla diffusione univerale, non a caso si utilizza una radice comune a più lingue.
Di fatto assistiamo quindi ad un continuo lavoro di Design linguistico, che riplasma forme antiche per le esigenze contemporanee.

EURO-ANGLATIN: L’INGLESE ARTIFICIALE UNIVERSALE
Non è realistico pensare che in futuro gli uomini parleranno una lingua artificiale universale, magari di origine antica.
Tuttavia, esistono diversi processi che possono favorire l’internazionalizzazione del linguaggio, su scala telematica.
Oggi il gruppo linguistico più numeroso nel mondo è quello EURO-FONO: circa due miliardi di persone.
Nella comunità scientifica internazionale, gli eurofoni sono quasi la totalità.
In particolare, l’inglese copre il 70 % delle pubblicazioni scientifiche del mondo. Ebbene, si pensi che ben due terzi del vocabolario inglese sono di origine latina, e tra questi termini figurano in primo luogo quelli di origine scientifica.
L’ipotesi di un nuovo codice artificiale anglo-latino comincia ora a farsi più realistica: perchè non adottare ad esempio quella parte del vocabolario inglese che è di origine latina, e quindi comune alle lingue neolatine (italiano, francese, spagnolo). In realtà scopriremo che queste parole sono anche presenti nel vocabolraio tedesco e, guarda caso, in quello russo (che ha una cultura di origine greco-ortodossa, e nel ‘600 ha introdotto il francese scientifico).
Con questo procedimento abbiamo a disposizione migliaia di ermini euro-inglesi utilizzabili su scala internazionale. Ma come combinarli, quale grammatica adottare?
Qui ci viene in aiuto l’informatica, insieme alla teoria del “latino sine flexione”. Basta combinare i termini in forma posizionale, semplificata, come fanno oggi i linguaggi per computer di alto livello, e otterremo una lingua artificiale potenzialmente universale.

IL LABORATORIO DEL LINGUAGGIO TELEMATICO
Abbiamo definito delle problematiche insolite, questioni latenti, ma probabilmente imminenti per la comunità scientifica. In qualche modo, si troveranno delle soluzioni ai problemi che qui sono stati descritti.
Ma la cultura non deve perdere anche questa occasione: non deve lasciare all’arbitrarietà dell’evoluzione tecno-economica questioni così cruciali come la lingua degli uomini. Forse oggi Dante scriverebbe oggi di nuovo il “De vulgari eloquentia” e si impegnerebbe nella ideazione di una nuova lingua europea. Certamente lo farebbero i futuristi, e le altre avanguardie storiche che purtroppo non disponevano di macchine meravigliose come i computer.
Chissà se qualche parte, forse in Europa, nascerà tra qualche tempo un laboratorio per la creazione di un linguaggio telematico.
Forse non sarà solo un linguaggio, ma adotterà tutte le risorse, linguistiche e multimediali, di cui ora possiamo disporre.
Questo scenario, comunque, è di grande aiuto per reagire attivamente alle pressioni della globalizzazione tecnologica, e per tornare a pensare il linguaggio e le potenzialità comunicative dell’uomo del XXI secolo, sospese tra i due opposti della globalizzazione tecnologica e della riscoperta delle tradizioni culturali