Created on 2024-04-23 07:57
Published on 2024-04-23 08:21
Mettiamola così, NON è una scelta o meglio - avrebbe potuto essere una scelta ma 30 anni fa, ora non più - perché se 30 anni fa invece di puntare sulla facoltà di legge, i giovani avessero puntato su medicina ora avremmo medici e chirurghi a sufficienza.
Magari qualcuno guardando le statistiche potrebbe dire che i chirurghi italiani non mancano. Peccato che in quella statistica ci finiscano anche i dentisti che sono molto numerosi e in misura minore i chirurghi estetici. Giusto per citare due onorabili professioni che però non sono quelle che troviamo al pronto soccorso o in sala operatoria in ospedale.
L'intelligenza artificiale nella finanza è la prossima frontiera, ormai imminente
Quindi, direi che MOLTE cose saranno decise direttamente o indirettamente dall'AI e non appare plausibile che neanche ci venga chiesto il nostro parere a riguardo a meno di non essere shareholders di quelle aziende. Ma in quel caso se abbiamo deciso di investire in esse, abbiamo già deciso anche tutto il resto.
Comunque estendendo la domanda: viaggereste su un taxi guidato da un'AI oppure cedereste il vostro posto da operaio gira-bulloni ad un robot?
Ebbene, anche queste due domande sono di pura retorica perché NON siamo noi a decidere. O meglio, anche qualora lo fossimo, siamo nella m*rda quindi bere o affogare perché scegliere implica avere i soldi per pagare di più per un autista umano che a quel punto può stare a mercato solo se
conosce tutto quello che conosce l'AI connessa ma in più anche le cose che l'AI non può conoscere perché sono informazioni disponibili solo con l'esperienza diretta o con il passaparola;
guida diversamente dall'AI, non necessariamente meglio, qualunque cosa questo aggettivo possa significare.
Considerato quanto scritto sopra, in particolare i punti 1 e 2, significa - stante il fatto che le AI guideranno in modo più sicuro da 10 a 1.000 volte più di un essere umano, a seconda dell'essere umano quel range è esteso, piuttosto che dall'AI - equivale a dire che l'autista umano è utile solo quando ci sono sordide questioni in ballo, per non dire illeciti o illegalità.
Infatti, lo "svantaggio" di un'AI è che essa non violerà il codice della strada per portarti in aeroporto a prendere il volo quando sei in ritardo, incluso passare sui marciapiedi o in strade a senso unico ma contromano per schivare un imbottigliamento del traffico. Ugualmente, un'AI non tenterà di seminare la polizia e potrebbe bloccarti in auto in attesa delle forze dell'ordine invece di portarti a spacciare se dovresti stare ai domiciliari.
Cosa per altro abbastanza scontato visto che la telecamera interna sarà in grado di riconoscere i volti e quindi identificare le persone in modo da garantire eventuali risarcimenti danni sia per l'assicurazione sia alla proprietà del mezzo in caso di vandalismi. Quindi non ti farà viaggiare con documenti falsi o pagare con carte di credito rubate e tanto meno in contanti.
Curiosamente, l'AI rende il crimine un'attività prettamente umana. Perché in un modo governato dall'AI, l'unico spazio in cui l'essere umano potrà trovare una dimensione di temporanea e illusoria libertà sarà appunto il crimine, sia inteso come attività propriamente detta sia in senso generale come non conformità alle norme.
Se l'imposizione del politicamente corretto da parte di un AI vi sembra osceno - ovvero un algoritmo incapace di comprendere il significato di un testo, di una foto o di un video, ma semplicemente di analizzarne il contenuto secondo determinate regole e catalogarlo secondo determinati schemi - quando si applica alla moderazione (o censura, dir si voglia) dei contenuti pubblicati sui social, è solo perché non avete ancora la più pallida idea di cosa stia succedendo in Israele, Cina e nei laboratori militari che dipendono dagli USA.
Laboratori per la maggiore, ma già nel 2020 [¹] si è avuta la prima vittima di un robot autorizzato al fuoco in via preventiva, ovvero abilitato a decidere in maniera autonoma su chi e cosa sparare senza alcuna supervisione o specifica autorizzazione umana a parte il deploy & forget: vai e (forse) torna, ma faI quello che devi.
A questo punto varrebbe la pena porsi una domanda un po' più attinenti a quella che pare essere la realtà che va a manifestarsi che comunque, è bene ricordarlo, è frutto di decisioni già prese anni prima o decenni prima.
Ma voi vi fareste ammazzare da un robot?
Prima del 2020 - ma forse prima ancora del 2020 visto che è dal 2016 che vengono sperimentate armi con autonomia decisionale di fuoco - l'uccisione di un persona a causa di un robot era riferibile ad un incidente sul lavoro.
Robert Nicholas Williams (May 2, 1953 – January 25, 1979) was an American factory worker who was the first known human to be killed by a robot.
Immagino però sia chiara la netta differenza fra essere vittime di un meccanismo automatico non correttamente posto in sicurezza - o per errore umano, esserne finiti vittima - che è in tutto e per tutto analogo ad essere investiti da un'auto o schiacciati da una pala meccanica mentre ci si trova in un angolo morto della visuale del guidatore o dell'operatore piuttosto che essere uccisi da un robot armato che autonomamente ha deciso di aprire il fuoco.
Magari puntandovi proprio come obbiettivo dell'attacco, nemmeno come danno collaterale per errore di valutazione o di percezione o di limitata informazione o di mera casualità.
Sempre che di autonoma decisione si possa parlare quando si tratta di algoritmi NON senzienti e quindi NON coscienti. Il che ci dovrebbe far accapponare la pelle già all'idea di istruire delle macchine a una qualche etica che NON possono comprendere, peggio se armate.
[¹] An autonomous robot may have already killed people, lnkd.in/eFHCUPv3
© 2024, Roberto A. Foglietta, licensed under Creative Common Attribution Non Commercial Share Alike v4.0 International Terms (CC BY-NC-SA 4.0).