Topics

Intelligenza Artificiale

Studio del Consiglio d’Europa sulle implicazioni dei sistemi di intelligenza artificiale per il concetto di responsabilità, DGI(2019)05

In questo studio vengono esaminate le implicazioni delle tecnologie digitali avanzate (compresa l’Intelligenza Artificiale) per il concetto di responsabilità, indagando come l’impiego di tali strumenti potrebbe ostacolare il godimento dei diritti e delle libertà fondamentali tutelati dalla CEDU e a quali forme di attribuzione della responsabilità si possa ricorrere di fronte a tali rischi e conseguenze.

Il report si articola in tre capitoli: (i) nel primo si individuano i tratti caratterizzanti i sistemi di machine learning (come l’autonomia decisionale, l’adattività all’ambiente circostante, l’opacità dei sistemi, etc.) che hanno delle dirette implicazioni sul concetto di responsabilità; (ii) nel secondo si analizza come l’impiego di sistemi algoritmici decisionali possa porre a repentaglio alcuni diritti fondamentali, in particolare il diritto alla privacy e alla protezione dei dati personali (art. 8 CEDU) e il diritto alla protezione contro forme di discriminazione (art. 14 CEDU); (iii) l’ultimo capitolo viene infine dedicato ai modelli di responsabilità applicabili e ai c.d. “standard etici” che l’industria tech si sta autonomamente impegnando a rispettare senza che siano tuttavia previsti meccanismi di enforcement o sanzionatori a presidio degli stessi.

The purpose of this study is to examine the implications of advanced digital technologies (including AI) for the concept of responsibility, particularly in so far as they might impede the enjoyment of human rights and fundamental freedoms protected under the ECHR and how responsibility for those risks and consequences should be allocated.

The report is divided into three chapters: (i) the first one identifies the features characterizing machine learning systems (such as decisional autonomy, adaptability to the surrounding environment, opacity of the systems, etc.) that have direct implications on the concept of responsibility; (ii) the second one analyzes how the use of algorithmic decision-making systems may threaten several human rights, including rights to privacy and data protection (Art 8 ECHR) and rights to protection against discrimination in the exercise of rights and freedoms (Art 14 ECHR); (iii) the last one is finally dedicated to the applicable models of responsibility and the so-called “ethical standards” that the tech industry is autonomously committing itself to abide, without, however, providing for enforcement and sanctioning mechanisms to protect them.

Report europeo sulla responsabilità per sistemi di Intelligenza Artificiale

In questo report della Commissione europea, redatto dal gruppo di esperti sulla “Responsabilità e Nuove Tecnologie”, si evidenziano i limiti che i regimi di responsabilità da prodotto ad oggi vigenti nei diversi Stati membri possono riscontrare di fronte alle applicazioni dell’Intelligenza Artificiale, caratterizzate da tratti specifici, quali: la complessità dei sistemi utilizzati; la modifica attraverso aggiornamenti o auto-apprendimento durante il funzionamento; la prevedibilità limitata e la vulnerabilità alle minacce alla cybersecurity.

In this report of the European Commission, the expert group on “Responsibility and New Technologies” highlights the limits that product liability regimes in force in the different Member States can find when faced with Artificial Intelligence applications, characterized by specific features, such as: the complexity of the systems used; modification through updates or self-learning; limited predictability and vulnerability to cybersecurity threats.

Libro bianco della Commissione europea sull’Intelligenza Artificiale

Nel libro bianco sull’Intelligenza Artificiale la Commissione europea ricostruisce il possibile quadro normativo di riferimento in materia di IA, evidenziando le lacune che andranno colmate per far fronte ai nuovi rischi che sollevano le peculiari caratteristiche (opacità, complessità, imprevedibilità e comportamento parzialmente autonomo) di molte tecnologie di IA. In particolare, la Commissione individua due principali aree di rischio: (i) per i diritti fondamentali, quali la protezione dei dati personali, privacy e non discriminazione; (ii) per la sicurezza e il funzionamento efficace del regime di responsabilità, posto in crisi (tra le altre) dalla moltitudine degli operatori economici lungo la catena di approvvigionamento.

Per quanto riguarda il quadro legislativo di riferimento, pur ritenendosi la legislazione dell’UE pienamente applicabile in linea di principio (particolarmente rilevante risulta il corpus di norme in materia di sicurezza dei prodotti e di responsabilità per danno da prodotti difettosi), essa dovrà essere aggiornata alle nuove questioni sollevate dall’IA. Infine, secondo la Commissione, oltre agli eventuali adeguamenti della legislazione esistente, potrebbe essere necessaria una nuova normativa specifica sull’IA, la quale dovrebbe costruirsi attraverso un approccio basato sul rischio, capace di distinguere tra le diverse applicazioni di IA, individuando quelle definibili “ad alto rischio”.

In the White Paper on Artificial Intelligence, European Commission describes the possible regulatory framework for AI, highlighting the gaps that need to be filled in order to address the new risks that the peculiar characteristics (opacity, complexity, unpredictability and partially autonomous behaviour) of many AI technologies raise. In particular, the Commission identifies two main areas of risk: (i) for fundamental rights, such as the protection of personal data, privacy and non-discrimination; (ii) for the security and effective functioning of the liability regime, which is destabilized (among others) by the multitude of economic operators along the supply chain.

As far as the legislative framework is concerned, while EU legislation is considered to be fully applicable in principle (the body of product safety and product liability rules is particularly relevant), it will need to be updated to the new issues raised by AI. In addition, in Commission’s view, in addition to possible adaptations of existing regulations, new specific legislation on IA may be needed, which should be built on a risk-based approach, capable of distinguishing between different applications of AI, identifying those that can be defined as “high risk” applications.

Intellectual Property and Artificial Intelligence. A literature review.

Relazione tecnica del Joint Research Centre (JRC) e del science and knowledge service della Commissione europea. Di Iglesias, M., Shamuilia, S. Anderberg, A., EUR 30017 IT, Ufficio delle pubblicazioni dell’Unione europea, Lussemburgo, 2019.

Technical report by the Joint Research Centre (JRC) and the European Commission’s science and knowledge service. By Iglesias, M., Shamuilia, S. Anderberg, A., EUR 30017 EN, Publications Office of the European Union, Luxembourg, 2019.

Consiglio di Stato, sez. VI, sentenza 13 dicembre 2019, n. 8472/2019, Pres. Montedoro – Est. Ponte

L’utilizzo di un software nel procedimento di formazione della decisione amministrativa, nel quale vengono immessi una serie di dati per giungere, attraverso l’automazione della procedura, alla decisione finale è una procedura che non deve essere stigmatizzata, ma incoraggiata, perché comporta numerosi vantaggi quali la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario e la conseguente maggior garanzia di imparzialità della decisione automatizzata.

Tuttavia, per ogni ipotesi di utilizzo di algoritmi in sede decisoria pubblica devono essere rispettati il principio di piena conoscibilità a monte del modulo utilizzato e dei criteri applicati (ovvero i suoi autori, il procedimento usato per la sua elaborazione e il meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti) e di imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo. L’articolo 22, paragrafo 1 Regolamento UE 2016/679, infatti, riconosce alla persona il diritto di non essere sottoposta a decisioni automatizzate prive di un coinvolgimento umano e che, allo stesso tempo, producano effetti giuridici o incidano in modo analogo sull’individuo, per cui occorre sempre l’individuazione di un centro di imputazione e di responsabilità, che sia in grado di verificare la legittimità e logicità della decisione dettata dall’algoritmo.

Pertanto, l’impossibilità di comprendere le modalità con le quali opera l’algoritmo costituisce di per sé un vizio tale da inficiare la procedura.

The use of software in the administrative decision making procedure, in which series of data are used to arrive, through an automation procedure, at the final decision, is a procedure that should not be stigmatised, but encouraged, because it has many advantages such as the considerable reduction in procedural time for purely repetitive and non-discretionary operations, the exclusion of interference due to negligence (or worse, malice) of the official and the consequent greater guarantee of impartiality of the automated decision.

However, for each hypothesis of use of algorithms in public decision-making, the principle of full knowledge of the form used and the criteria applied (i.e. its authors, the procedure used for its elaboration and the decision-making mechanism, including the priorities assigned in the evaluation and decision-making procedure and the data selected as relevant), as well as the principle of imputability of the decision to the body holding the power, must be respected. Therefore, the body holding the power must be able to carry out the necessary verification of the logic and legitimacy of the choice and the results entrusted to the algorithm. Article 22(1) EU Regulation 2016/679, in fact, recognizes the right of the person not to be subject to automated decisions without human involvement and which, at the same time, produce legal effects or affect in a similar way the individual, so it is always necessary to identify a centre of imputation and responsibility, which is able to verify the legitimacy and logicality of the decision dictated by the algorithm.

Therefore, the impossibility of understanding the way in which the algorithm operates is in itself a flaw that is such as to invalidate the procedure.

Decreto del Ministero delle Infrastrutture e dei Trasporti del 28 febbraio 2018 

Decreto che disciplina le modalità attuative e gli strumenti operativi della sperimentazione su strada delle soluzioni di Smart Road e di guida connessa e automatica.

Decree regulating the implementation methods and operational tools for road testing of Smart Road and connected and automatic driving solutions.

Il progetto di legge tedesco sull’auto a guida automatizzata

Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes, Drucksache 18/11300, 20.02.2017

Orientamenti etici per un’IA affidabile

Linee guida etiche per un’intelligenza artificiale affidabile elaborate dall’indipendente gruppo di esperti di alto livello sull’intelligenza artificiale istituito dalla Commissione Europea.

Ethics guidelines for trustworthy AI elaborated by the independent high-level expert group on artificial intelligence set up by the European Commission.

Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato Economico e Sociale europeo e al Comitato delle Regioni, Piano coordinato sull’intelligenza artificiale – COM(2018) 795 final del 7/12/2018

Communication from the Commission to the European Parliament, the Council, the European economic and social Committee and the Committee of the Regions,Coordinated Plan on Artificial Intelligence.

Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato Economico e Sociale europeo e al Comitato delle Regioni, L’intelligenza artificiale per l’Europa – COM(2018) 237 final del 25/04/2018

Communication from the Commission to the European Parliament, the Council, the European economic and social Committee and the Committee of the Regions, Artificial Intelligence for Europe.

×