L’intelligenza artificiale può essere uno strumento molto valido per la tutela della cybersicurezza di utenti privati ed enti pubblici, questo però non esclude che dei cyber criminali si possano avvalere di questa innovazione tecnologia con finalità tutt’altro che positive.
Project AI4People
Il progetto AI4People prende il via da un’iniziativa di Atomium (European Institute for Science, Media and Democracy http://www.eismd.eu/ ) volta a stilare un documento (https://www.academia.edu/37691951/AI4People_-_An_Ethical_Framework_for_a_Good_AI_Society_Opportunities_Risks_Principles_and_Recommendations) contenente delle linee guida da adottare per poter utilizzare in maniera proficua i sistemi di intelligenza artificiale. All’interno del testo vengono evidenziati 5 principi da tenere a mente nello sviluppo dell’IA: beneficenza, non fare del male, autonomia, giustizia e spiegabilità.
1. Beneficienza. Intesa come promozione del benessere e conservazione della dignità umana in un’ottica di preservazione del pianeta.
2. Non fare del male. Nel senso che l’utilizzo dell’intelligenza artificiale deve avvenire nel rispetto della privacy e della sicurezza delle persone.
3. Autonomia. Quando si adottano sistemi di gestione basati sull’IA, è necessario delegare a questi sistemi parte del potere decisionale che solitamente spetterebbe agli esseri umani. Dunque è molto importante decidere cosa delegare ai sistemi di intelligenza artificiale e cosa lasciare alla supervisione umana.
4. Giustizia. Intesa come promozione di uguaglianza, solidarietà ed inclusione, ma anche come lotta alla discriminazione in un’ottica di pari opportunità e pari distribuzione di risorse.
5. Spiegabilità. Il concetto di spiegabilità prende in esame una tematica molto importante nell’epoca contemporanea, ovvero il fatto che la progettazione delle tecnologie, che sempre più di frequente pervadono le nostre vite, è in mano ad una ristretta cerchia di persone. Dunque risulta fondamentale capire in che modo queste tecnologie operano, al fine di instaurare un rapporto trasparente e positivo tra uomo e macchina.
Nuove minacce
Come accennato in apertura di articolo, gli utilizzi ai quali potrebbe prestarsi l’intelligenza artificiale non sono esclusivamente benevoli e di ausilio all’azione umana.
Tralasciando il tema della sicurezza digitale, già ampiamente trattato nei nostri precedenti articoli, è interessante fare luce su altri pericoli legati ad un uso improprio dell’IA. Ad esempio la possibilità di utilizzare dei supporti fisici (droni e simili) completamente automatizzati per compiere azioni terroristiche a distanza oppure dei software in grado di interferire con i comandi dei veicoli a guida autonoma.
Piano europeo per per la sicurezza aerea
In occasione di Ict 2018, convegno organizzato dalla Commissione europea in tema di digitale e tecnologia, l’EASA cioè l’Agenzia europea per la sicurezza aerea ha annunciato un progetto volto ad elaborare e ad adottare un piano comune che tuteli la cybersicurezza nel campo dell’aviazione.
Tale piano prevede che venga istituito un organo adibito allo sviluppo di specifiche linee guida in caso di cyber attacchi ad aeroporti e all’elaborazione di standard e risposte condivise alle sopracitate minacce.