3 Commenti

Errata corrige, 'Big data' e non 'bid data'

Expand full comment

Non concordo con le tesi di questo articolo. Ritengo che sia prudente, da parte della UE, appellarsi al diritto internazionale per la regolamentazione dell'uso della A.I. per scopi bellici. Se la UE si desse dei limiti che però non sono rispettati da altri stati, si renderebbe vulnerabile rispetto a chi questi limiti non intende metterseli. Riguardo alle scelte del sig. Alex Karp, le sue argomentazioni mi sembrano quelle di un commerciante che vuole motivare con scelte ideali, per altro molto discutibili, scelte che sono probabilmente puramente economiche. Ma non è lui a dettare le regole, sono i governi che comprano i suoi prodotti a farlo. Ragion di più per appellarsi al diritto internazionale per una regolamentazione dell'uso della A.I a scopo bellico. Però, visto il tempo in cui viviamo, non ho molte aspettative.

Expand full comment

Davvero sorprendente, due domande. La prima strettamente attinente: l'eccezione potrebbe essere utilizzata come pretesto per sfuggire al regolamento anche da parte di chi non sviluppa espressamente A.I. dedicata a scopi bellici? La seconda più generale: come limitare il condizionamento dell'indicazione fornita dall'A.I. sulla scelta umana? Spiego meglio, oltre all'"incidente" WCK, ho letto di uno studio in ambito sanitario relativo al fatto che i medici non vanno a sindacare la diagnosi sbagliata dell'A.I.

Expand full comment