In principio fu la ruota. Poi venne il carro (da cui l’inglese “car”). La fine del XIX secolo vide infine l’avvento dell’automobile. È un gradino durato più di cento anni quello che divide l’auto dalla suo salto evolutivo.
Auto-mobili, semoventi, che si muovono da sole. La possiamo chiamare «robot-mobile», «software-car» o – per rimanere fedeli alla tradizione – auto-guidabile. Non è teoria e nemmeno un prototipo. L’auto «automatica» (si perdoni la tautologia) è realtà e lo è anche sulle strade. Non le nostre (vedremo perché), ma quelle americane (vedremo perché). Cosa fa la robot-auto è semplice: si guida da sola. La cosa però, sta facendo nascere più problemi di quanti ne risolva. Problemi giuridici. Ma anche etici. Un passo indietro.
La tecnologia robotica che consente di avere l’autopilota va di pari passo all’automobile interattiva, ossia quella che “legge” le funzionalità del proprio conducente e lo avvisa se è stanco, ne corregge gli errori di guida, evita le manovre inappropriate e gli suggerisce quelle corrette. Le due tecnologie sembrerebbero antitetiche e, comunque, una (la seconda) prodromica all’altra (la prima), tanto che si potrebbe pensare che sviluppare l’auto interattiva sia inutile, essendo la «robot-car» già esistente. Può darsi, ma gli scenari sono ancora aperti, poiché entrambe le tecnologie promettono di rivoluzionare il mercato dell’auto. Ma non solo. Se guardiamo un po’ più in là, possiamo proiettare alcuni plausibili scenari. L’importante è non fare lo stesso errore di chi a suo tempo disse che l’automobile non avrebbe mai sostituito il cavallo!
Google (Alphabet) e Tesla Motors ne hanno già materialmente realizzate alcune, che viaggiano sulle strade statunitensi. Un’altra l’ha appena realizzata l’università di Stendford. Apple “CarPlay” è in fase di trattativa con Fiat Chrysler, tra le altre, per una partnership e ne ha già siglata una con General Motors (la quale a sua volta ha già investito 500 milioni di dollari in Lyft, startup concorrente di Uber). Poi c’è Kinetic del russo Sverdlov che sta organizzando “RoboRace”, ossia la prima Formula 1 di auto robotiche dove a sfidarsi saranno i migliori algoritmi. Nel frattempo il mercato dell’auto “classica” è da anni in crisi, il petrolio è ai minimi storici, si affacciano gli ibridi elettrici e imperversa lo scandalo Volkswagen (che coincidenze!).
Una prima, semplice, proiezione è che il punto focale dell’auto non è più il motore, ma tutto quello che gli sta attorno. Ecco nascere appunto, le prime Joint Venture fra colossi tecnologici e titani del motore a scoppio. Google e Ford, Apple e Chrysler, Tesla tutta sola. Una tendenza che rimescolerà (assieme ad Iot) i vecchi schemi industriali. Come detto, in U.S.A. queste auto si muovono già su strada. Lo fanno da anni. Questo perché i software apprendono con l’esperienza: ogni situazione, ogni metro di strada percorsa, viene registrato e immagazzinato e serve da guida al software per capire come comportarsi in situazioni analoghe. Nulla di più di ciò che fa il cervello umano. Ovviamente i primi input, le prime soluzioni, le hanno date gli ingegneri. Ma il software più “cammina” e più impara, sebbene con i dovuti correttivi umani.
Negli Stati Uniti d’America non vige il principio di precauzione, come in Europa. Per il Diritto continentale (Civil Law), esso è quel principio secondo il quale bisogna provare che un servizio o un prodotto non sia dannoso o rechi pregiudizio ai cittadini/consumatori. È il motivo per il quale in Europa non ci sono OGM: non è ancora stato accertato che siano innocui per la salute.
In America vige il principio opposto: se qualcosa non è vietato, allora è lecito. Questo anche se vi è il rischio che sia dannoso (in qualsiasi modo). Qualora venisse provata questa circostanza, colui che abbia immesso nel mercato tale prodotto, sarà tenuto a risponderne in sede civile (indennizzo) o eventualmente penale. Fine. La robot-auto porta però con sé un problema giuridico molto rilevante, del quale si è già ampiamente dibattuto: di chi è la responsabilità in caso di incidente? È della casa automobilistica che ha costruito l’auto (con i supporti fisici per il software), del produttore dei componenti software (il programmatore) o del proprietario?
Il problema va ancora risolto giuridicamente. Una soluzione “tappa buchi” potrebbe essere quella di studiare regole apposite di assicurazione. Ma è comunque indifferibile anche una soluzione normativa compiuta. Ma la questione sta tutta qui. Perché bisogna andare a monte del “problema” responsabilità in caso di incidente e bisogna affrontare la questione robotica nel suo complesso. Il che abbraccia anche l’etica.
Poniamo il caso che la macchina debba scegliere se causare un incidente automobilistico o investire un passante. Certo, bisogna chiedersi di chi sia la responsabilità. Ma bisogna anche chiedersi su che basi il programma decide. Poi bisogna anche capire se decide in base al proprio auto-apprendimento esperienziale o decide in base a criteri di programmazione. E a quali criteri di programmazione. Oppure poniamo il caso che il robot, in una situazione limite, non possa far altro che scegliere se ammazzare una persona con una manovra o due persone con un’altra. Dovrebbe scegliere solo su base numerica? E se il singolo fosse un bambino?
Gli scenari possono essere diversi e fantasiosi in effetti. Specie se si considerano fattori esterni all’auto ed imprevedibili, come intemperie, attraversamento di animali ecc. Va poi tenuta conto la velocità di reazione del software e la modalità con la quale possa intervenire. E le cose si complicano di più se prendiamo l’altra tecnologia che abbiamo citato e la mischiamo alla robot-car. Ossia una robot-car dove il conducente possa interagire e quindi “forzare” il robot a compiere determinate manovre, come ad esempio un sorpasso (oggi le auto-robot consentono questa interazione). Se la manovra è eseguita/controllata dal software, ma l’impulso, l’ordine sia dato dall’uomo, chi è il responsabile in caso di incidente?
E sarebbe lecito che un robot non eseguisse un’ordine? Questo apre un’altra breccia. Esistono già esperimenti avanzati per fare evitare a un robot di compiere un ordine umano “sbagliato”. Il che sta a significare che l’ordine diventa interpretabile ..con tutto ciò che ne consegue sul piano etico, pratico (Intelligenza Artificiale) e giuridico. Ma torniamo all’auto. Un auto che si guida da sola è un auto nella quale il conducente non serve più a niente. Certo, oggi il conducente sta lì a bocca aperta a guardare l’auto che va da sola, ma dopo un paio di volte, si annoierà. Ecco il primo sconvolgimento. L’auto non sarà più solo un mezzo di trasporto. Diventerà un luogo “abitabile” dove passare (o sfruttare il tempo). E questo la cambierà completamente, all’esterno ed all’interno.
Non solo. Dobbiamo pensare a questo tipo di auto integrata con la tecnologia IoT (Internet of Things) che a breve inizierà a imperversare e dove tutto sarà connesso a tutto. Non è difficile pensare che IoT possa far comunicare le macchine fra di loro, le macchine con le strade e la segnaletica e, in grande, con i «Big Data» del traffico tramite satellite. Lo scenario futuro potrebbe essere quindi quello di un mercato di auto-robot sincronizzate fra loro. Questo permetterebbe spostamenti più veloci (non ci sarebbero code ai semafori e rallentamenti) e sicuri (tutto il traffico sarebbe coordinato e sincronizzato in tempo reale). Non solo. L’auto diventerebbe un salotto, o un ufficio, e il fulcro si sposterebbe dal motore al software e dal software alle “facilities” (le comodità, gli accessori e il design interno).
Questo ridisegnerebbe il mercato del lavoro settore (gli autisti di camion, di taxi ecc.) e costringerebbe a cambiare modello di business di grandi compagnie del trasporto come Uber e Lyft, sconvolgendo poi tutto il comparto assicurativo e legale (niente incidenti, niente assicurazioni, niente cause …in effetti “not so bad”!). Ma potrebbe anche cambiare il concetto di proprietà dell’auto con quello del semplice uso. In fondo il mercato va in quella direzione da ogni parte: spossessamento del bene e uso condiviso (vale per case, auto, beni e servizi).
Ma tutto ciò, oltre che sul piano sociologico e commerciale, cambierebbe anche le regole. Come si potrà garantire un interazione umana alla guida su un’autostrada di robot-mobili sincronizzate? Sarà lecito vietarlo? Altri problemi derivano dalla privacy e dalla sicurezza. Un sistema integrato di Big Data come quello di un auto robot, da un lato è una miniera di dati di tracciamento delle abitudini, degli spostamenti e dei comportamenti dei passeggeri. Dall’altro è un sistema attaccabile dagli hacker.
Dunque nascono problemi in ordine alla conservazione e fruizione di tali dati (dove, da chi, perché, per quanto, chi ne ha accesso, come, quando?) e dall’altro problemi di protezione e sicurezza (chi è responsabile di garantire l’inattaccabilità del sistema? Come si può evitare che il sistema sia attaccato nel suo insieme? Questa sicurezza di ordine pubblico, dovrà essere garantita da entità private – ossia coloro che gestiranno i software -?).
Di domande e questioni, etiche, fattuali e giuridiche, ce ne sono ancora tante. Troppe per un semplice articolo e purtroppo troppe per un sistema di produzione normativa lento e in costante ritardo. Forse la soluzione sarà un’autoregolamentazione spontanea del mercato. Una nuova fase di Lex Mercatoria o di autodisciplina delle industrie, che farà da traino per il comparto normativo. Di sicuro ci sono solo due aspetti: il mondo che conosciamo cambierà, e di molto. E certamente avrà bisogno di nuove regole …ma soprattutto di nuovi “modelli” normativi. Bisogna solo mettersi a inventarli.
Avv. Gianluigi Maria Riva