È noto che l’uso di ICT e tecnologie basate sull’intelligenza artificiale, ormai parte integrante di molti aspetti della società, compresa la giustizia penale e il sistema penitenziario, può comportare rischi per i diritti fondamentali, ivi compreso il pieno rispetto del principio rieducativo della pena.
Analizzando il panorama internazionale, con particolare riferimento agli istituti penitenziari, emergono, però, anche alcune applicazioni virtuose di tali tecnologie, sia in atto sia in potenza. Anche strumenti “non umani” possono offrire, infatti, vantaggi significativi, ad esempio nel monitorare e gestire situazioni critiche tra i detenuti e nel promuovere un effettivo reinserimento sociale: attraverso una “disumanizzazione” degli strumenti si può paradossalmente garantire il rispetto del principio di umanizzazione della pena delle persone detenute.
IA, giustizia predittiva e potenziali vulnus ai principi fondamentali del diritto penale
Come evidenziato dalla Carta etica europea sull’utilizzo dell’IA nei sistemi giudiziari, redatta nel 2018 dalla Commissione europea per l’efficienza della giustizia (CEPEJ), in seno al consiglio d’Europa, l’impiego di IA in chiave predittiva può compromettere diritti e libertà fondamentali, oltre ai principi cardine del diritto penale. Tra i potenziali profili di censura costituzionale emergono la mancanza di trasparenza e accessibilità dell’algoritmo, che potrebbe violare il diritto alla difesa garantito dall’art. 24 della Costituzione, il principio di colpevolezza e la funzione rieducativa della pena previsti da una lettura sistematica dell’art. 27, commi 1 e 3, oltre al principio di legalità sancito dall’art. 25, comma 2 e ai suoi corollari. In particolare, l’opacità dell’algoritmo rischia di compromettere il principio di prevedibilità, che si impernia nell’art. 7 CEDU e che richiede che l’ordinamento giuridico consenta ai cittadini di conoscere in anticipo le conseguenze penali delle loro azioni, in coerenza coi principi sopra citati.
È evidente, infatti, che se il soggetto non è messo nella condizione di comprendere le ragioni o i criteri su cui si basano le decisioni, non potrà essere pienamente consapevole delle conseguenze giuridiche derivanti dalle proprie azioni, né comprendere appieno il disvalore della propria condotta, presupposto imprescindibile per un’effettiva rieducazione ai sensi dell’art. 27 co. 3. La Corte Costituzionale nella nota sentenza n. 364 del 1988, ponendo in risalto il rapporto tra il reo e i valori violati si è espressa nel senso che la funzione rieducativa della pena è ipotizzabile solo nel caso in cui l’agente abbia dimostrato indifferenza od ostilità verso i valori tutelati dall’ordinamento e che il principio di colpevolezza “è indispensabile anche per garantire al privato la certezza di libere scelte d’azione: per garantirgli, cioè, che sarà chiamato a rispondere penalmente solo per azioni da lui controllabili e mai per comportamenti che solo fortuitamente producano conseguenze penalmente vietate; e, comunque, mai per comportamenti realizzati nella “non colpevole” e, pertanto, inevitabile ignoranza del precetto. A nulla varrebbe, infatti, in sede penale, garantire la riserva di legge statale, la tassatività delle leggi ecc. quando il soggetto fosse chiamato a rispondere di fatti che non può, comunque, impedire…”. Si noti, pertanto, che in questo senso il principio di colpevolezza si configura come l’altra faccia del principio garantistico di legalità, alla base di ogni Stato di diritto. Da una lettura sistematica dei commi primo e terzo dell’art. 27 Cost. discende che l’ordinamento democratico è tale in quanto sappia porre i consociati in grado di comprenderlo senza comprimere la loro sfera giuridica con esiti sanzionatori non prevedibili.
Il rischio di bias cognitivi
Per quanto attiene al rischio di bias cognitivi, che possono minare il principio di uguaglianza, un caso emblematico sul punto e ampiamente analizzato in dottrina è il caso Loomis, negli Stati Uniti, dove il software COMPAS è stato utilizzato per stimare il rischio di recidiva nel contesto di una decisione di rilascio su cauzione. Come è noto, infatti, l’impiego di sistemi algoritmici in funzione predittiva solleva questioni giuridiche rilevanti, tra cui la questione relativa all’opacità degli algoritmi che limita il diritto di difesa degli indagati/imputati, impedendo loro di comprendere pienamente le motivazioni alla base delle decisioni giudiziarie e, dunque forse anche il disvalore dell’atto commesso.
L’adozione di algoritmi decisionali si basa, infatti, per sua natura, sull’analisi dei precedenti, risultando così ancorata al passato e vulnerabile ai cosiddetti bias di conferma. Sebbene anche l’interpretazione del diritto da parte degli esseri umani non sia immune da pregiudizi, essa è generalmente più dinamica, capace di adattarsi ai cambiamenti e aperta all’innovazione. Questo rende il processo decisionale umano più flessibile rispetto a quello algoritmico.
Il caso Loomis
Il caso Loomis ha messo in evidenza le criticità legate all’utilizzo di algoritmi per valutare la pericolosità sociale o le possibilità di recupero di una persona. Delegare tali decisioni a sistemi automatizzati, che elaborano dati personali e contestuali, rischia di generare risultati predeterminati e confermativi. Sul punto, l’ONG ProPublica ha documentato come il software COMPAS, utilizzato nel caso in parola, abbia prodotto esiti discriminatori: alle persone afroamericane veniva spesso attribuito, sulla base di un questionario e di dati ricavati dal casellario giudiziale, un rischio di recidiva doppio rispetto ad altri gruppi, nonostante ciò non fosse nelle intenzioni di chi lo aveva progetto. Da ciò emerge che l’algoritmo dovrebbe essere concepito come uno strumento ancillare, di mero supporto e integrato in un processo decisionale più ampio, non come elemento determinante. La complessità delle questioni giuridiche non può essere ridotta a modelli algoritmici semplicistici. I giudici, infatti, effettuano valutazioni articolate e discrezionali, che includono l’interpretazione delle norme e la ponderazione delle prove. Nell’ordinamento italiano, l’uso di algoritmi nelle decisioni giudiziarie è attualmente vietato dall’art. 8 del D.lgs. 51/2018, che recepisce la Direttiva UE 2016/680, nonché dall’art. 22 GDPR (Regolamento UE 2016/679) che sancisce il diritto a non essere sottoposti a decisioni basate unicamente su processi automatizzati, ivi inclusa la profilazione. Un impiego di tali sistemi in sostituzione del “giudice umano” risulterebbe, inoltre, senza dubbio incompatibile con alcuni principi costituzionali. Si fa particolare riferimento all’art. 102 Cost., ove stabilisce che la funzione giurisdizionale è riservata ai magistrati regolati dalle norme sull’ordinamento giudiziario, all’art. 101, che prevede la soggezione dei giudici solo alla legge e sembra, dunque, propendere nel senso che essi non possano vincolarsi a decisioni algoritmiche, che potrebbero introdurre automatismi pericolose. V’è da menzionare anche l’art. 25 co. 1 che, col principio del giudice naturale precostituito per legge, sembra presupporre la necessità che vi sia un giudice umano, escludendo implicitamente la sostituzione con l’IA. L’adozione di sistemi automatizzati violerebbe, anche il diritto di difesa e l’indipendenza del giudice, garantiti dall’art. 111 Cost., ma anche ex art. 6 della CEDU.
Una panoramica dell’uso della tecnologia negli istituti penitenziari
Nonostante le criticità finora menzionate, si ritiene che l’implementazione di ICT e delle tecnologie basate sull’IA nel sistema penitenziario presenti potenziali vantaggi che verranno enucleate nel presente articolo. La proposta di raccomandazione elaborata dal Consiglio per la cooperazione penologica (PC-CP) sottolinea che l’impiego dell’IA all’interno delle carceri, in quanto attualmente principalmente connesso alla sicurezza, schiude rilevanti questioni etiche e di privacy, ma può rappresentare altresì uno strumento chiave nel monitoraggio e nel trattamento tempestivo della condizione delle persone detenute e in particolare di quelle con situazioni più critiche – come le persone affette da malattie o con disagi psico-fisici – favorendo la tutela della salute e il reinserimento sociale della popolazione carceraria.
In un’ottica foucaultiana, la tecnologia rappresenta un insieme di pratiche adottate dagli apparati di controllo per rafforzare il dominio fisico sui detenuti. Nel corso dei secoli, all’osservazione diretta dell’uomo si sono affiancati strumenti di sicurezza sempre più sofisticati. Inizialmente, il controllo si basava su dispositivi “hard”, come sbarre e serrature, il cui scopo era per lo più preventivo. Tali strumenti hanno contribuito alla “docilizzazione dei corpi” e all’analisi delle condotte, con l’obiettivo di far interiorizzare ai detenuti parametri comportamentali utili al loro reinserimento sociale.
Con il progresso tecnologico, questi strumenti tradizionali sono stati integrati con dispositivi “soft”, come la videosorveglianza e i braccialetti elettronici, che, pur essendo a volte più invasivi, hanno l’effetto di alleggerire il sovraffollamento carcerario, migliorando al contempo la gestione e il controllo dei detenuti. Già dagli anni ’80, i prodromi della rivoluzione tecnologica in ambito carcerario hanno portato all’introduzione di sistemi come le valutazioni computerizzate del rischio, utilizzate per stimare la pericolosità e il rischio di recidiva, e il monitoraggio elettronico. Negli ultimi decenni, strumenti come le videocamere a circuito chiuso (CCTV) e i sistemi automatizzati di accesso hanno ridotto la necessità di sorveglianza diretta, permettendo un controllo continuo e in tempo reale.
Nel panorama attuale, caratterizzato da un uso intensivo di tecnologie avanzate, il controllo sui detenuti si sviluppa su due livelli: da un lato, il monitoraggio e la mappatura dei gruppi considerati a rischio; dall’altro, l’adozione di dispositivi come i braccialetti elettronici per alleviare la pressione sul sistema carcerario. Questi strumenti configurano un nuovo panopticon, consentendo un controllo costante, meno visibile e invasivo, ma al contempo più efficiente. In particolare, l’utilizzo dei braccialetti elettronici contribuisce, come si è detto, a ridurre il sovraffollamento nelle carceri, un problema endemico nel sistema penitenziario europeo, mentre la videosorveglianza aiuta a prevenire conflitti e situazioni critiche tra i detenuti, spesso caratterizzati da fragilità personali. L’avvento delle tecnologie digitali e dell’IA ha ulteriormente accelerato questa trasformazione.
L’impiego dell’IA in ambito carcerario
Sebbene l’impiego dell’IA in ambito carcerario sia ancora limitato, la letteratura internazionale evidenzia come essa venga utilizzata soprattutto per scopi legati alla sicurezza. In alcuni Paesi asiatici stanno emergendo, in particolare, le cosiddette smart prisons, ovvero carceri dotate di tecnologie avanzate e notevoli digital capabilities. Queste strutture non solo potenziano la sicurezza, ma offrono anche strumenti per la riabilitazione dei detenuti, come accesso a servizi educativi, sanitari e modalità di comunicazione con i familiari, in linea con i principi di umanizzazione della pena.
Il caso del Regno Unito
In Europa, il Regno Unito è stato un precursore in tal senso, avviando già dal 2016 l’impiego di talune tecnologie AI based per migliorare la gestione delle carceri. Tra le applicazioni principali vi sono l’elaborazione del linguaggio naturale per identificare pattern e problematiche a livello nazionale e locale e l’uso del machine learning per prevedere la probabilità di incidenti violenti nelle prigioni. Un caso esemplare è rappresentato dalla prigione di Liverpool, dove le telecamere monitorate da IA vengono utilizzate per prevenire il contrabbando di droghe, telefoni e armi, nonché per individuare comportamenti sospetti.
In Cina, invece, sono stati adottati sistemi di monitoraggio avanzati basati sull’IA che includono reti di telecamere e sensori dotati di riconoscimento facciale e analisi del movimento. Questi sistemi raccolgono dati comportamentali dei detenuti per segnalare eventuali anomalie o attività sospette. Ad Hong Kong, le telecamere intelligenti sono capaci di rilevare comportamenti anomali, come tentativi di autolesionismo o svenimenti, avvisando tempestivamente il personale per interventi immediati. Un ulteriore sviluppo tecnologico in questo contesto riguarda l’utilizzo di braccialetti di tracciamento, che monitorano i parametri biometrici dei detenuti e inviano allarmi in caso di potenziali lesioni o problemi di salute. Un altro campo di applicazione dell’automazione è rappresentato dai robot di sorveglianza c.d. robotic guards. In particolare, ad Hong Kong si stanno sperimentando robot dotati di telecamere e microfoni per monitorare da remoto i detenuti, alleggerendo così anche il carico di lavoro degli agenti penitenziari. La Corea del Sud, già nel 2012, ha introdotto robot progettati per prevenire atti di violenza o suicidio, contribuendo anche in questo caso a ridurre lo stress lavorativo del personale umano.
I possibili output positivi dell’impiego delle ICT negli istituti penitenziari
Come si è detto, attualmente la tecnologia risulta prevalentemente impiegata per finalità di controllo. Il suo utilizzo potrebbe, però, apportare benefici significativi sia all’amministrazione penitenziaria, migliorandone efficienza ed economicità, sia al benessere psicofisico dei detenuti. Ciò sarebbe particolarmente rilevante in un momento storico in cui il tasso di suicidi nelle carceri ha raggiunto livelli allarmanti.
Guardando al futuro, le tecnologie potrebbero contribuire a mitigare anche il problema del sovraffollamento carcerario, che, al 30 giugno 2024, ha raggiunto un indice del 120%. In tal senso alcuni progetti futuristici transnazionali mirano a ridurre drasticamente il numero delle carceri tradizionali, riservando la detenzione fisica soltanto ai soggetti più socialmente pericolosi.
Il metodo Cognify
Un esempio è il metodo Cognify, sviluppato a Dubai, che propone di sottoporre i detenuti meno pericolosi a sedute di realtà virtuale che li immergono nelle esperienze delle vittime dei loro crimini, con l’obiettivo di una riabilitazione più rapida e a basso costo. Parallelamente, un team dell’Università di Oxford ha proposto l’uso di psicofarmaci per alterare la percezione del tempo nei detenuti, inducendoli a credere di aver scontato lunghe pene in pochi giorni. Le tecnologie dell’IA possono essere integrate anche in programmi di istruzione, formazione e trattamento riabilitativo. La realtà virtuale, ad esempio, consente di personalizzare i percorsi riabilitativi e di superare barriere linguistiche per i detenuti stranieri.
I potenziali vantaggi che si ravvisano, invero, sono svariati. Riguardano il reinserimento sociale e lavorativo, anche tramite un’adeguata formazione e alfabetizzazione digitale, un migliore accesso all’assistenza sanitaria, grazie all’uso di strumenti come la telemedicina e all’introduzione di supporti psicologici innovativi, il mantenimento di legami affettivi attraverso strumenti di comunicazione virtuale. V’è da dire, però, che numerosi ostacoli impediscono una piena digitalizzazione del sistema penitenziario. Innanzitutto, la concezione della pena è ancora fortemente legata a un’idea di punizione come strumento vessatorio ed esclusivo, poco compatibile con una maggiore apertura, anche solo virtuale, delle carceri. Persistono, inoltre, disuguaglianze formali e sostanziali: molte strutture detentive, a causa di risorse limitate o distribuite in modo diseguale, non sono attualmente in grado di adottare le tecnologie necessarie per adeguarsi all’evoluzione digitale.
ICT e tecnologie AI based e benessere dei detenuti
Si ritiene che le ICT e tecnologie AI based ben impiegate possano incidere in maniera significativa sul benessere dei detenuti, contribuendo al loro reinserimento sociale, in linea con i principi di rieducazione e umanizzazione della pena sanciti dall’art. 27, co. 3 e dall’art. 3 co. 2 della Costituzione. Si rammenta, infatti, che il rischio di recidiva, che attualmente si attesta al 70%, scende al 2% per i detenuti che dispongono di un contratto di lavoro. Nella società attuale, l’alfabetizzazione e l’inclusione digitale rappresentano opportunità preziose per favorire il reinserimento lavorativo. A tale scopo, l’Accordo Interistituzionale del 2023 tra il Ministero della Giustizia e il CNEL sottolinea il ruolo centrale del lavoro penitenziario, che deve essere formativo e professionalizzante per facilitare la reintegrazione sociale e ridurre la recidiva. I mestieri legati al digitale, in particolare, offrono prospettive concrete per adeguarsi alle richieste del mercato del lavoro. Modalità di lavoro agile, sempre più diffuse, potrebbero consentire, in particolare ai detenuti con competenze digitali, di accedere al settore privato. Attualmente, l’85% dei detenuti lavoratori in Italia è impiegato nell’amministrazione penitenziaria, ma iniziative come il ddl n. 1/2024 del CNEL, che prevede una piattaforma informatica per sistematizzare i rapporti tra carceri e imprese, potrebbero ampliare queste opportunità.
Detenuti che addestrano gli algoritmi: il progetto finlandese
Un altro esempio innovativo è il progetto pilota adottato nelle carceri finlandesi, dove i detenuti vengono formati per addestrare algoritmi. Questo approccio non solo fornisce competenze digitali avanzate, ma dimostra come la tecnologia possa essere un alleato nella riabilitazione e nel reinserimento sociale.
Le ICT per potenziare la vita relazionale e affettiva dei detenuti
Le ICT possono, inoltre, potenziare la vita relazionale e affettiva dei detenuti. Nell’epoca della connessione digitale, privare i detenuti dell’accesso a Internet rischia di amplificare il loro isolamento sociale. Un primo passo significativo in Italia è stato compiuto con la circolare del Ministero della Giustizia n. 366755/2015, che ha introdotto per i detenuti studenti la possibilità di accedere a Internet tramite white-list, garantendo così un miglioramento del diritto allo studio. Si consideri che ,prima della pandemia, non era prevista neppure la possibilità di colloqui a distanza con magistrati o avvocati, se non in casi eccezionali. Solo con la circolare n. 31246/2019 si è introdotta l’opzione delle videochiamate per i detenuti di media sicurezza, con l’obiettivo di facilitare i contatti con i familiari.
Considerando l’evoluzione tecnologica della società, è evidente che il mancato accesso al digitale rappresenta una forma di esclusione sociale non giustificabile, soprattutto dal momento che risulta possibile e agevole esercitare un controllo sugli accessi.
ICT e salute in carcere
Anche nel campo della salute, le ICT possono offrire vantaggi significativi. La popolazione carceraria presenta infatti un fabbisogno sanitario superiore alla media, sia per la prevalenza di patologie pregresse, come dipendenze e disturbi psichici o psicologici, sia per le condizioni spesso insalubri degli istituti di detenzione. Si pensi a strumenti come la telemedicina, in grado di facilitare l’accesso alle cure, in linea con il principio di equivalenza delle cure introdotto dalla riforma sanitaria penitenziaria del 2008. Sebbene non possa sostituire il rapporto medico-paziente, la telemedicina consente di velocizzare i trattamenti e migliorare il raccordo tra sanità penitenziaria interna ed esterna. Non ci si può esimere dal ricordare che, anche dal punto di vista della tutela dei diritti umani, le ICT hanno già svolto un ruolo significativo. Spesso, episodi di abusi nei confronti dei detenuti sono stati documentati grazie alle videocamere di sorveglianza, delineando un sistema di contro-sorveglianza che garantisce maggiore protezione ai detenuti stessi.
Chatbot e umanizzazione della pena
Meritano sicuramente menzione le c.d. emotional AI based technologies, quali chatbot, assistenti virtuali, social robot, che sembrano destinati a schiudere notevoli opportunità anche per il sistema penitenziario sul piano della rieducazione e del supporto psicologico. A tal proposito, negli Stati Uniti si è discusso dell’uso di assistenti digitali, simili ad Alexa, per alleviare lo stress psicologico dei detenuti in isolamento. In un futuro prossimo, come sottolineato dal Consiglio per la cooperazione penologica, non è escluso che anche le amministrazioni penitenziarie europee si troveranno ad affrontare questioni etiche legate all’introduzione di chatbot, robot di accoglienza o persino sexbot come strumenti terapeutici. Sistemi capaci di riconoscere segnali emotivi come espressioni facciali, tono di voce e linguaggio, simulando sensibilità e empatia con un alto grado di accuratezza e realismo, ma sempre – è essenziale specificarlo – sotto il controllo umano, potrebbero suggerire agli utenti che interagiscono con essi di essere ascoltati e lenire il loro senso di isolamento. Tali strumenti sarebbero dunque impiegati in attuazione del principio di umanizzazione della pena in forza del quale, anche in contesti di detenzione, va garantito il rispetto della dignità umana e la tutela dei diritti inviolabili delle persone in esecuzione pena. Potrebbe, dunque, parlarsi curiosamente di una disumanizzazione”” degli strumenti – se per strumenti pensiamo ad AI based system quali chatbot o social robot – in prospettiva, però, come si è detto, di una maggiore umanizzazione della pena.
Le ICT rappresentano un’opportunità unica per trasformare il sistema carcerario, rendendolo più efficiente, umano e orientato al reinserimento sociale. È fondamentale, però, affrontare le sfide etiche, sociali e infrastrutturali che ancora ne limitano l’adozione. L’introduzione di tecnologie deve avvenire nel rispetto della dignità e dei diritti dei detenuti, garantendo che queste innovazioni non diventino strumenti di ulteriore emarginazione, ma promuovano, invece, un reale reinserimento lavorativo e sociale e una sempre più aderente attuazione del principio di umanizzazione della pena.
Bibliografia
Allegri P. A., et al., Le tecnologie dell’informazione in carcere: realtà, potenzialità, ambivalenze, in Antigone, 2, 2021, pp. 7-11.
Anastasia S., L’anacronismo del carcere di fronte alle tecnologie dell’informazione, in Antigone, 2, 2021, pp. 48-57.
Corno E. M., Come si sta usando la tecnologia in carcere: AI, realtà virtuale e il controverso progetto Cognify, in Corriere della Sera, 2024.
D’Aloia A., Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal, 1, 2019, pp. 3 – 31.
D’Aloia A., Intelligenza artificiale, società algoritmica, dimensione giuridica. Lavori in corso, in Quaderni Costituzionali, 3, 2022.
De Benedittis M., Sociologia della cultura. Spazio, tempo, corporeità, Bari, Editori Laterza, 2023.
Donati F., Intelligenza artificiale e giustizia, in A. D’Aloia, (a cura di), Intelligenza artificiale e diritto. Come regolare un mondo nuovo, Milano, FrancoAngeli, 2020, pp. 237-265.
Foucault M., Nascita della clinica. Una archeologia dello sguardo medico, Torino, Einaudi, 1998.
Puolakka P. e Van De Steene S., Artificial Intelligence in prison in 2030 an exploration on the future of AI in prison, in Advancing Correction Journal, 12, 2021.
Rodrigues A. M. e Fidalgo S., The role of Artificial Intelligence (AI) in rehabilitation and in the reduction of the use of imprisonment, in UNIO – EU Law Journal, 10, 2024, pp. 42-53.
Ronco D., La telemedicina negli istituti penitenziari: potenzialità, resistenze e prospettive, in Antigone, 2, 2021, pp. 59-76.
Simoncini A., L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 1, 2019, pp. 63 – 89.
McGoogan C., Liverpool prison using AI to stop drugs and weapons smuggling, in Telegraph, 2016.
Zavrsnik A., Criminal Justice, Artificial Intelligence Systems, and Human Rights, in ERA Forum, 20, 2021, pp. 567-583.
A. Zavrsnik, Criminal Justice, Artificial Intelligence Systems, and Human Rights, in ERA Forum, 20, 2021, pp. 567-583. ↑
C. Cost. Sent. del 23-24 marzo 1988 n. 364. ↑
Per una trattazione completa cfr. A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 1, 2019, pp. 63 – 89. ↑
A. D’Aloia, Intelligenza artificiale, società algoritmica, dimensione giuridica. Lavori in corso, in Quaderni Costituzionali, 3, 2022, pp. 667-668. ↑
A. D’Aloia, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal, 1, 2019, pp. 3 – 31, p. 18. ↑
F. Donati, Intelligenza artificiale e giustizia, in A. D’Aloia, (a cura di), Intelligenza artificiale e diritto. Come regolare un mondo nuovo, Milano, FrancoAngeli, 2020, pp. 237-265. ↑
M. De Benedittis, Sociologia della cultura. Spazio, tempo, corporeità, Bari, Editori Laterza, 2023; M. Foucault, Nascita della clinica. Una archeologia dello sguardo medico, Torino, Einaudi, 1998. ↑
P. A. Allegri, et al., Le tecnologie dell’informazione in carcere: realtà, potenzialità, ambivalenze, in Antigone, 2, 2021, pp. 7-11, ↑
C. McGoogan, Liverpool prison using AI to stop drugs and weapons smuggling, in Telegraph, 2016. ↑
A. M. Rodrigues e S. Fidalgo, The role of Artificial Intelligence (AI) in rehabilitation and in the reduction of the use of imprisonment, in UNIO – EU Law Journal, 10, 2024, pp. 42-53, p. 48. ↑
P. Puolakka e S. Van De Steene, Artificial Intelligence in prison in 2030 an exploration on the future of AI in prison, in Advancing Correction Journal, 12, 2021. ↑
Nel quinquennio 2020-2024 sono stati rilevati 810 casi di suicidi, rappresentando il suicidio la prima causa di decesso nelle carceri italiane, per un approfondimento cfr. https://www.garantedetenutilazio.it/suicidio-prima-causa-di-morte-nelle-carceri-italiane/. ↑
E. M. Corno, Come si sta usando la tecnologia in carcere: AI, realtà virtuale e il controverso progetto Cognify, in Corriere della Sera, 2024. ↑
Dati riportati dal presidente del CNEL il 08.09.2024, cfr. R. Brunetta, Lavoro e dignità contro le recidive. Così possiamo reinserire i detenuti, in Avvenire, 2024. ↑
P. Puolakka e S. Van De Steene, op. cit.. ↑
S. Anastasia, L’anacronismo del carcere di fronte alle tecnologie dell’informazione, in Antigone, 2, 2021, pp. 48-57. ↑
D. Ronco, La telemedicina negli istituti penitenziari: potenzialità, resistenze e prospettive, in Antigone, 2, 2021, pp. 59-76. ↑
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link