Applicare marzo 2007 |
Giancarlo Livraghi gian@gandalf.it |
|
|
||
Disponibile anche
in pdf Devo confessare che non ci avevo mai pensato. E non mi sarebbe venuto in mente se non avessi visto una serie di vignette satiriche dello stesso autore che ho citato in La stupidità delle tecnologie e anche in varie altre occasioni precedenti. Si tratta di capire se possiamo applicare alle tecnologie di oggi le Three Laws of Robotics concepite da Isaac Asimov e poi seguite non solo da lui, ma anche da molti altri autori, come norme fondamentali di comportamento per macchine che si immaginano programmate in modo da avere qualche capacità di pensare. (Vedi le spiegazioni in Wikipedia). Da più di cinquantanni quelle leggi sono generalmente accettate non solo nel mondo della science fiction, ma anche negli studi scientifici di cibernetica e di ipotetica intelligenza artificiale. Furono definite da Asimov in un racconto, Runaround, del 1942, e poi in una serie di sviluppi sul tema dei robot, immaginati non come androidi (cioè macchine cibernetiche di aspetto e comportamento umano) ma come esseri palesemente meccanici di forma approssimativamente antropomorfa come vediamo, per esempio, in questa immagine, che è la copertina della prima edizione di I, Robot in cui era raccolta la prima serie di racconti di Asimov su questo tema, dal 1940 al 1950. Questaltra immagine è molto più
recente (2001). Lo stile è diverso. Ma il concetto è lo stesso. Naturalmente i robot esistono, ma non si è sviluppata quellipotesi su cui si basavano le narrazioni del possibile: unestesa proliferazione di macchine con questo aspetto, più o meno pensanti, al servizio dellumanità capaci di alleggerire il genere umano dei compiti più gravosi, o pericolosi, o meno piacevoli, o comunque servili. È ovvio che, se quelle macchine esistessero, dovrebbero esserci criteri universalmente validi, e chiaramente definiti, per regolare il loro comportamento. Che si identificano con le tre leggi della robotica. Queste norme inderogabili sono in ordine rigorosamente gerarchico: cioè la prima prevale sulle altre due e la seconda sulla terza. 1. Un robot non deve mai recare danno a un essere umano né, per inattività, permettere che un essere umano subisca un danno. Usciamo da un mondo immaginario popolato di miliardi di robot più o meno antropomorfi e vediamo che cosa succede nella nostra realtà quotidiana. Le macchine (e in generale gli automatismi, anche quando ad applicarli sono esseri umani) obbediscono alla prima legge? No. Non solo i computer, ma anche aggeggi più semplici, non sono buoni servitori. Ci infliggono continuamente danni di ogni sorta. E poco o nulla fanno per impedire che qualcosa o qualcun altro ci danneggi. La gamma delle conseguenze varia da piccoli fastidi quotidiani a danni estremamente gravi. Questi meccanismi sono essenzialmente stupidi. Se si limitassero a svolgere fedelmente compiti semplici e coerenti, potrebbero esserci utili e darci poco fastidio. Il problema è una tendenza delirante a renderli sempre più complessi, sempre più carichi di funzioni inutili o inutilmente pasticciate. Lo sviluppo e lapplicazione di ogni sorta di tecnologie potrebbero avere un sostanziale miglioramento se tutta la progettazione fosse severamente assoggettata alla Prima Legge della Robotica. 2. Un robot deve obbedire agli ordini ricevuti da unessere umano, se tali ordini non contravvengono alla Prima Legge. Le tecnologie (come gli automatismi burocratici, anche quando sono applicati da esseri umani) obbediscono sempre meno agli ordini (e alle esigenze) delle persone di cui dovrebbero essere al servizio. Sono dominate dalle intenzioni di progettisti che badano troppo spesso alle proprie fantasie tecnologiche (o privilegi e pregiudizi di categoria) e troppo raramente alle esigenze reali degli utilizzatori. Inoltre gli stessi progettisti spesso non si rendono conto di quello che stanno facendo, perché nellincrocio di sistemi sempre più complessi si trovano a usare routine di cui non conoscono la struttura o a intersecare funzioni progettate da altri per motivi diversi. Lintrico che ne deriva è una complicazione indecifrabile, con una moltiplicazione di disfunzioni di cui spesso anche i tecnici più esperti non capiscono la causa (e perciò non trovano la soluzione). Il risultato è che le tecnologie obbediscono sempre meno agli esseri umani e si pretende sempre di più che gli esseri umani obbediscano alle tecnologie. Prima che gran parte dellumanità abbia bisogno di cure psichiatriche, e che si producano disastri più palesemente catastrofici di quelli già avvenuti, sarebbe opportuno sottoporre ogni sviluppo tecnico (e disciplina burocratica) a una rigorosa e intransigente applicazione della Seconda Legge della Robotica. Molte delle tecnologie oggi esistenti sarebbero da buttar via, per sostituirle con cose molto più semplici e funzionali. (Magari ripescandone qualcuna che cera, ma è stata sostituita da soluzioni meno valide). Forse sarebbe un po a disagio chi oggi guadagna, o esercita potere, infliggendoci quei pastrugni inestricabili che ogni giorno ci rovinano la vita e il buonumore. Ma starebbe molto meglio tutto il resto dellumanità. 3. Un robot deve proteggere la propria esistenza, a condizione che tale protezione non sia in conflitto con la Prima e la Seconda Legge. Nella realtà in cui viviamo... le tecnologie e le macchine sanno almeno proteggere se stesse? No. Nel percorso demenziale della complicazione sono sempre più soggette a guasti, malfunzionamenti, crisi e conflitti interni (nel senso che ogni funzione aggiunta rischia di guastarne unaltra). Nella continua ricerca di falsa innovazione è sempre meno possibile aggiustarle. Quando qualcosa si guasta, ci sentiamo dire sempre più spesso che lunica soluzione è buttarla via e sostituirla con una nuova (che, essendo più complicata, funziona peggio e si guasta di più). Quindi le macchine e le tecnologie, oltre a farci danni e a non obbedirci, sono sempre più avviate a un suicidio collettivo. Già oggi i rottami sono un preoccupante inquinamento ambientale. Continuare su questo percorso non è intelligenza né naturale, né artificiale. È stupidità, con componenti masochistiche. Prima che sia troppo tardi, rileggiamo le Leggi di Asimov e cerchiamo di applicarle. In uno degli sviluppi successivi ai suoi primi lavori su questo tema, Isaac Asimov si era accorto che mancava un principio più generale, e perciò aveva aggiunto una legge zero, gerarchicamente superiore alle altre tre: «Un robot non deve danneggiare lumanità né, per inattività, permettere che lumanità subisca un danno». Bene, facciamo così. Mettiamo le esigenze umane al di sopra di ogni altra considerazione e vediamo come ridurre finalmente allobbedienza le macchine con cui sarebbe molto più piacevole convivere se fossero davvero al nostro servizio. Post Scriptum |
||