La tecnologia in generale, quella digitale in particolare e ancor più specificatamente l'Intelligenza Artificiale, può essere vista come un pharmakon, nel senso greco della parola, e cioè a seconda dei casi e a volte nel medesimo caso (vedi quello oggi clamoroso dell'Intelligenza Artificiale generativa con ChatGPT) una "medicina", un "farmaco" appunto, e/o un "veleno". Nel caso delle tecnologie però diversamente dai farmaci è stato molto raro che si parlasse dei rischi, dei pericoli, delle controindicazioni, degli effetti decisamente negativi che avrebbero potuto produrre, almeno in certe situazioni. Di solito si è aspettato che questi si producessero, restandone più o meno sorpresi e spiazzati per poi (cercare di) correre ai ripari. Stranamente, con l'Intelligenza Artificiale sta avvenendo il contrario. C'è un'autentica corsa, allarmata, di scienziati, operatori economici, istituzioni pubbliche nazionali e internazionali a (cercare di) prevenire i possibili ma ampiamente temuti effetti negativi collaterali o addirittura voluti dell'IA, tale per cui si è levato un coro davvero inusuale per invocare regolamentazioni e autoregolamentazioni che minimizzassero questi rischi, pericoli, se non addirittura disastri. È importante capire perché sta succedendo questo. Il presente libro, inquadrandole nella più generale esigenza di una nuova etica, un'etica digitale, e nell'epocale trasformazione della trasmissione del sapere che stiamo vivendo, illustra dettagliatamente, con numerosi esempi, le principali sfide etico-sociali dell'Intelligenza artificiale (soffermandosi con un focus particolare su quelle particolarmente critiche, proprio dal punto di vista etico e sociale, delle applicazioni in medicina), illustrando i tentativi in corso per affrontarle.
Anonimo -