Nuovi diritti

Come il diritto di spiegazione, sono gli elementi di garanzia che devono essere costruiti dalle istituzioni normative e dal dialogo sociale a fronte dell’espansione e dell’estensione nella platform society dell’algocrazia privata.

Leggiamo infatti in “IA: lavorare con l’intelligenza artificiale. Una cassetta degli attrezzi 4.0“:

[Le organizzazioni sindacali,] in fase di programmazione degli algoritmi che «nutrono» l’IA al fine di evitare processi discriminatori [devono affrontare] le seguenti problematiche:
1.     quali dati, e con quale livello di informazione del singolo, vengono utilizzati;
2.     quale il grado di anonimizzazione dei dati e quale il rischio di reidentificazione degli stessi;
3.     quali le correlazioni probabilistiche secondo le quali l’IA assumerà o suggerirà decisioni; questo è il «luogo» di inserimento delle norme validanti i processi;
4.     come vengono determinati i cluster su cui «ragionano» gli algoritmi: le classificazioni sono uno degli strumenti principe delle possibili decisioni discriminatorie e sono determinanti nella fase di impostazione del processo algoritmico;
5.     in caso di applicazione di deep learning, ossia di estrazione di significati da parte della macchina, quale il grado di trasparenza dei processi decisori o predittivi (black box); spesso infatti non è semplice neanche per i tecnici comprendere come si sia arrivati ad una decisione anziché ad un’altra.
(…)

Non vi è dubbio (…) che (…)sia necessario assumere alcune linee strategiche tra cui: formazione specializzata per chi contratta, sia per poter intervenire negozialmente nella fase di costruzione dei processi di algoritmizzazione sia, nelle more del riconoscimento contrattuale della contrattazione anticipatoria, per offrire strumenti atti a comprendere cosa stia dietro ad una politica, ad un intervento che le imprese tenderanno a presentare in fase applicativa e non ideativa.
Tra gli elementi di valutazione anche la compatibilità di quanto l’impresa voglia attuare con il vasto tema della responsabilità sociale a cui si lega quello «reputazionale», sempre più percepito come centrale soprattutto dalle multinazionali.

Materia di contrattazione di secondo livello può divenire lo stesso efficientamento di sistema, che prenda origine dall’utilizzo di dati del singolo, e che potrebbe essere riconosciuto come elemento da «remunerarsi». Una costruzione diversa dei Premi di Risultato (PDR) che tenga conto dell’apporto decisivo che il singolo, con i suoi dati ed il suo know how, fornisce ai meccanismi di implementazione tecnologica e dunque una operazione di redistribuzione vera e propria.
Se infatti la materia prima – senza la quale l’IA applicata all’organizzazione del lavoro ed al processo produttivo o di distribuzione/erogazione del servizio non esplica funzionalità – sono i dati forniti dai lavoratori nello svolgimento della loro attività, una quota di attribuzione dei diritti di sfruttamento della «invenzione» andrebbe riconosciuta in modo permanente in capo ai lavoratori.
Si potrebbe pensare all’affermazione di un principio di consequenzialità causale tra il data sharing e il benefit sharing (principio invero applicabile anche alla relazione tra utente che fornisce dati alla PA ed utilizzo degli stessi per migliorare servizi resi in risposta dei bisogni del/lla cittadino/a).
È dunque necessario che, riconosciuta la fornitura dei dati da parte dei lavoratori come elemento indispensabile del processo creativo della IA, la maggior produttività, il risultato che si consegue, abbiano ricadute redistributive per chi lavora, in termini di riconoscimento economico e professionale. (…)
Si pone, inoltre, un problema di responsabilità giuridica che attiene alle decisioni assunte con il supporto della IA. Se non si intende deresponsabilizzare il datore di lavoro/produttore, non si può assentire al tentativo di riconoscimento di personalità giuridica alle macchine. Ma se la macchina «sbaglia» di chi è la responsabilità?
Se si assume come linea politica il riconoscimento della centralità del fattore umano, la sua tutela, la sua promozione, la sua remunerazione nel processo di implementazione della IA, non ci si può esimere dal riconoscerne quota parte della responsabilità in caso di errore: in capo a chi è elemento da valutarsi in ordine al grado di intervento del singolo nel processo. La contrattazione potrebbe esercitarsi in una tipizzazione stretta del ventaglio possibile delle inefficienze sanzionabili.
Anche per quanto attiene le declaratorie e i profili professionali vanno regolamentate le figure inserite nel processo di sviluppo, costruzione, lavoro di/con un algoritmo.
In generale sempre più frequentemente le diverse applicazioni tecnologiche comporteranno una minore rigidità dei profili professionali.
Ai fini dell’esercizio del controllo datoriale è quanto mai indispensabile perimetrare l’ambito degli «strumenti di lavoro» (art. 4) per limitare la possibilità del datore di lavoro di evitare il confronto e l’accordo sindacale.
Si deve poi iniziare a ragionare su un «RLS» [Rappresentante dei lavoratori per la sicurezza – NdR] dei dati, che ne tuteli conservazione ed utilizzo, e conseguentemente va implementato il Documento di Valutazione dei Rischi in tema di utilizzo e tutela dei dati del singolo. Va cioè chiesto ed implementato quel DVR rispetto alla tutela dei dati che anche il GDPR prevede.
Infine, anche in ambito contrattuale, va regolamentato il tema dei brevetti e della tutela della proprietà intellettuale.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...