Piani normativi per intelligenza artificiale e algoritmi

Tempo di lettura: 4 minuti

La regolamentazione della potente e in rapida crescita dell’ sta diventando un tema di grande preoccupazione per il governo a causa dei suoi numerosi impatti su nazioni e società, sia nel bene che nel male.

Al fine di plasmare meglio le questioni relative alla , è importante comprendere due concetti di base che sono i pilastri dell’attuale implementazione tecnologica: Algorithms and Artificial Intelligence (AI). Di Joao Paro.

Gli impatti positivi di queste tecnologie sono quelli legati al fatto che la tecnologia può essere molto utile per aiutare la vita quotidiana.

Nessuno può negare che è più facile e più comodo essere guidati da algoritmi e quando guidiamo, scegliamo i prezzi e facciamo negozi.

Gli aspetti negativi possono essere definiti dalle vulnerabilità che derivano dagli usi di queste tecnologie. Questi includono domande come:

Come rendere responsabile la tecnologia?

In quali termini dovremmo mitigare i rischi e proteggere la nostra privacy dallo sviluppo inarrestabile della tecnologia?

In particolare, l’uso improprio di algoritmi e intelligenza artificiale per manipolare l’opinione pubblica, erodendo la libertà e i principi democratici diffondendo notizie false e dividendo le persone con disinformazione.

Il Congresso degli Stati Uniti sta prendendo in considerazione due nuovi atti legislativi per regolare l’uso dell’intelligenza artificiale e degli algoritmi.

L’intelligenza artificiale può essere definita come “la teoria e lo sviluppo di sistemi informatici in grado di svolgere compiti che normalmente richiedono , come la percezione visiva, il riconoscimento vocale, il processo decisionale e la traduzione tra le lingue”.

Gli algoritmi possono essere definiti come “l’attuale termine di scelta per una procedura di risoluzione dei problemi, algoritmo, è comunemente usato al giorno d’oggi per l’insieme di regole che una macchina (e soprattutto un computer) segue per raggiungere un obiettivo particolare. Tuttavia, non sempre si applicano all’attività mediata dal computer. ”

Sia l’intelligenza articolare che gli algoritmi dovrebbero essere soggetti a regolamentazione da parte del governo degli Stati Uniti e ci sono due nuove leggi che verranno prese in considerazione dal Congresso degli Stati Uniti. :

Il Bill HR 2231 chiamato “Algorithmic Accountability Act del 2019” , è stato presentato per la prima volta alla Camera dal deputato repubblicano Yvette Clarke nell’aprile 2019 allo scopo di “richiedere alle entità che utilizzano, archiviano o condividono informazioni personali di condurre valutazioni di impatto automatizzate del sistema decisionale e valutazioni d’impatto sulla protezione dei dati “.

Fondamentalmente, questo disegno di legge, che viene attualmente valutato dal Congresso degli Stati Uniti, stabilisce le definizioni per un sistema decisionale automatizzato e i suoi impatti con l’obiettivo di regolarlo.

Due delle definizioni sono sensibili all’intenzione di responsabilità nella proposta di legge, come indicato di seguito:

La sezione 2.1 prevede che il sistema decisionale automatizzato “indica un processo computazionale, incluso uno derivato dall’apprendimento automatico, dalle statistiche o da altre tecniche di elaborazione dei dati o di intelligenza artificiale, che prende una decisione o facilita il processo decisionale umano, che ha un impatto sui consumatori”.

La sezione 2.2 definisce la valutazione d’impatto del sistema decisionale automatizzato come uno “studio che valuta un sistema decisionale automatizzato e il processo di sviluppo del sistema decisionale automatizzato, compresi i dati di progettazione e formazione del sistema decisionale automatizzato, per impatti su accuratezza, equità, distorsione, discriminazione, privacy, e la sicurezza che include “.

Un secondo disegno di legge è stato presentato al Senato degli Stati Uniti a maggio 2019. Il disegno di legge del 1558 chiamato “Artificial Intelligence Initiative Act” o “AI – IA” intende introdurre un regolamento per lo sviluppo della tecnologia AI. Il progetto di legge mira “a stabilire un’iniziativa federale coordinata per accelerare la ricerca e lo sviluppo dell’intelligenza artificiale per la sicurezza economica e nazionale degli Stati Uniti e per altri scopi”.

Questo disegno di legge sta riconoscendo la necessità di creare l ‘”Iniziativa nazionale di intelligenza artificiale, compresa una e un coordinamento tra agenzie sulla sull’intelligenza artificiale”. (Sezione 2). La legge sull’algoritmo di responsabilità porta alcune importanti definizioni in materia. Il principale è:

“(1) INTELLIGENZA ARTIFICIALE. Il termine” intelligenza artificiale “comprende quanto segue:

(A) Qualsiasi sistema artificiale che svolge compiti in circostanze variabili e imprevedibili senza una significativa supervisione umana, o che può imparare dall’esperienza e migliorare le prestazioni se esposto a dati set.

(B) un sistema artificiale sviluppato in per computer, hardware fisico, o di altro contesto che risolve i compiti che richiedono umano-come la percezione, la cognizione, la pianificazione, l’apprendimento, la comunicazione, o l’azione fisica.

(C) un sistema artificiale progettato per pensare o agire come un essere umano, comprese le architetture cognitive e le reti neurali.

(D) Un insieme di tecniche, incluso l’apprendimento automatico, progettato per approssimare un compito cognitivo.

(E) Un sistema artificiale progettato per agire razionalmente, incluso un agente software intelligente o un robot incarnato che raggiunge obiettivi usando la percezione, la pianificazione, il ragionamento, l’apprendimento, la comunicazione, il processo decisionale e la recitazione “. (Sezione 1)

Questo disegno di legge AI-IA intende creare un istituto di ricerca con l’obiettivo specifico di monitorare lo sviluppo della tecnologia dell’intellgenza artificiale aumentando i finanziamenti e gli nell’istruzione. Questa è un’iniziativa che rappresenta una leva significativa per la ricerca e lo sviluppo di alto livello dell’IA (R&S).

Un lato della medaglia normativa sta cercando di rendere legalmente responsabile lo sviluppo tecnologico al fine di ridurre e controllare i rischi e le vulnerabilità. Questo nuovo quadro normativo fornisce una mitigazione degli abusi tecnologici come un’enorme minaccia impiegata dai criminali informatici e dalle persone cattive o persino dai governi autoritari.

L’altro lato della medaglia è legato alla fornitura di prestazioni elevate per le imprese, per aumentare la per l’utente, ridurre i costi per il trasporto, migliorare l’assistenza sanitaria e così via con investimenti pubblici nella per costruire un artificiale “più intelligente” Intelligenza.

Joao Paro è consulente normativo presso Compliance and Risks.

Fonte
cybersecurityintelligence.com