Comitetul de experți în algoritmi la locul de muncă a fost coordonat de Gemma Galdón și este format din Anna Ginès, Ana Belén Muñoz, Javier Sánchez și Adrián Todolí.

Virginia Eubanks, expertă în studiul relației dintre tehnologie și justiție socială, și Nick Srnicek au participat, de asemenea, la eveniment. , Profesor de Economie Digitală la King’s College London.Un instrument de pionierat
Instrumentul care este pus la dispoziția lucrătorilor și companiilor le permite acestora să respecte obligația de informare algoritmică a tuturor companiilor.

Precizează și sistematizează obligațiile de informare a afacerilor și permite garantarea dreptului fundamental la nediscriminare.

Se precizează în 4 epigrafe de probleme: informații generale, informații despre logică și funcționare, informații despre consecințe, alte informații relevante te.

Fiecare secțiune constă dintr-o serie de întrebări precum ce tip de tehnologie folosește algoritmul (cutie neagră, învățare continuă), cine a dezvoltat-o, cu ce decizii, dacă există persoane în acest proces de decizie și în ce măsură aceștia participă, ce date de instruire au fost utilizate, dacă extremele au fost verificate, ce consecințe se pot deduce pentru oameni din decizia adoptată, dacă candidatul a fost informat al utilizării algoritmilor… ca să menționăm câteva exemple.

Pentru Virginia Banks, ghidul reprezintă „un mare pas înainte pentru a asigura decizii mai echitabile și demnitate în mediul de lucru“.

Într-un context în care utilizarea algoritmilor este din ce în ce mai frecventă în lumea afacerilor pentru a lua decizii în mod automat și că acest fapt poate punând în pericol drepturile fundamentale ale lucrătorilor, Yolanda Díaz a asigurat că „a vorbi despre reglementare algoritmică înseamnă a vorbi despre pieptene. abordarea inegalității și a precarității”.

În acest sens, responsabilul Muncii a avansat că Inspectoratul de Muncă și Securitate Socială conturează algoritmul Max pentru a combate atât surplusul de ore suplimentare și orele suplimentare lucrate și neplătite.

Algoritmii nu sunt inofensivi
Procesul de proiectare și construire a unui sistem de decizie automatizat este supus multor decizii de proiectare, iar sistemul final va depinde de fiecare dintre acestea rezultate.

Este deci o chestiune de combatere a așa-numitei „discriminare algoritmică” care reproduce tipare clasice de discriminare.

După cum explică profesorul Nick Srnicek, algoritmii nu sunt utilizați doar pe platformele digitale, ci sunt din ce în ce mai folosiți în mediile tradiționale de lucru. În acest sens, a cerut „o nouă legislație care reglementează și restricționează utilizarea algoritmilor”.

Orice modificare în selecția datelor de antrenament, a metodei de ajustare sau ponderarea relativă a acestuia în algoritm va genera un model diferit și, prin urmare, cu posibilitatea de a fi supus unor prejudecăți.

Documentul prezentat afectează importanța existenței intervenției umane în fiecare dintre deciziile fragmentate și nu numai într-o anumită parte a procesului. De exemplu, într-un proces de selecție, dacă candidații finali sunt selectați de un algoritm, decizia finală ar depinde de o decizie umană.

După cum ați amintit Yolanda Díaz „modelele și prejudecățile care sunt utilizate în proiectarea algoritmilor au consecințe în carne și oase. Algoritmul nu este orb”, așa cum a stabilit hotărârea de pionierat a Tribunalului Bologna din 31 din decembrie până la 2020 despre algoritmul Frank”.

În acest cadru, „este responsabilitatea noastră să punem progresele tehnologice în slujba majorității sociale și a justiției sociale. Este responsabilitatea statului, pe de o parte, să inoveze, iar pe de altă parte, să ofere protecție și stabilitate”, a subliniat șeful Muncii.

. Ley rider , punct de cotitură
Decretul-lege regal 9/ 2021, pentru garantarea drepturilor de muncă ale persoanelor dedicate distribuției în domeniu a platformelor digitale consacră dreptul lucrătorilor oricărei companii de a „fi informați de către companie cu privire la parametrii, regulile și instrucțiunile pe care se bazează algoritmii sau sistemele de inteligență artificială care afectează luarea deciziilor care pot afecta condițiile de muncă, accesul la și menținerea ocupării forței de muncă, inclusiv crearea de profiluri”.

Acest standard de pionierat care inspiră proiectul de Directivă privind condițiile de muncă pe platforme care este acum dezbătut în UE.

Legea Rider se referă la d obligațiile de informare ale platformelor digitale cu privire la sistemele automatizate de supraveghere și luare a deciziilor utilizate și garantează dreptul de a cunoaște și înțelege algoritmul.

Obiectivul este, prin urmare , să meargă către o companie „responsabilă din punct de vedere algoritmic” cu muncă decentă și responsabilă social.

Algoritmii trebuie să facă obiectul negocierii și de către reprezentanța lucrătorilor.

Ghid de utilizare a algoritmilor
Ghidul practic reunește într-un singur document obligații și drepturi în materie de informații algoritmice la locul de muncă: indică obligațiile companiei cu privire la informațiile pe care aceasta trebuie să le furnizeze reprezentanței legale a personalului și lucrătorii înșiși.

În plus, indică ce informații pot solicita reprezentarea legală a personalului și lucrătorii înșiși în conformitate cu reglementarile in vigoare.

Pe de alta parte, analizeaza obligatiile de afaceri de negociere a algoritmului, auditului si evaluarea impactului.

Pentru Yolanda Díaz, este vorba, așadar, de avansarea într-o utilizare adecvată a progreselor tehnologice. „Dacă folosim tehnologia în favoarea lucrătorilor, putem încorpora elemente pozitive”, a condamnat el.

Prezentarea ghidului de algoritmi, prezidat de vicepreședintele II al Guvernului, Yolanda Díaz. Mai multe informații Ghid practic și instrument privind obligația afacerii de a furniza informații privind utilizarea algoritmilor la locul de muncă (PDF) Etichete: Angajare // 2021 Sursa: Guvernul Spaniei – Yolanda Díaz prezintă instrumentul de pionierat care va dezvălui impactul algoritmilor asupra condițiilor de muncă