flex-height
text-black

Ce este distorsiunea AI?

Prejudecățile în materie de inteligență artificială sau distorsiunea AI se referă la discriminarea sistematică încorporată în sistemele AI care pot consolida prejudecățile existente și pot amplifica discriminarea, prejudecățile și stereotipurile.

Distorsiune în AI explicată

Distorsiunea în modelele AI apare, de obicei, din două surse: proiectarea modelelor și datele de antrenament pe care le utilizează.

Modelele pot reflecta uneori ipotezele dezvoltatorilor care le codifică, ceea ce le face să favorizeze anumite rezultate.

În plus, distorsiunea AI se poate dezvolta datorită datelor utilizate pentru antrenarea AI-ului. Modelele AI funcționează prin analizarea seturilor mari de date de antrenament într-un proces cunoscut sub numele de învățare automată. Aceste modele identifică tipare și corelații în cadrul acestor date pentru a face previziuni și decizii.

Atunci când algoritmii AI detectează modele de părtiniri istorice sau disparități sistemice încorporate în datele pe care sunt instruiți, concluziile lor pot reflecta, de asemenea, aceste prejudecăți și disparități. Și deoarece instrumentele de învățare automată prelucrează datele la scară masivă, chiar și micile prejudecăți din datele originale de formare pot duce la rezultate discriminatorii pe scară largă.

În acest articol, ne vom cufunda adânc în locul din care provine prejudecățile AI, cum se manifestă prejudecățile AI în lumea reală și de ce abordarea prejudecăților IA este atât de crucială.

Importanța abordării discriminării în ceea ce privește IA

Distorsiunea este inerentă tuturor oamenilor. Este produsul secundar al unei perspective limitate a lumii și al tendinței de a generaliza informațiile pentru a eficientiza învățarea. Cu toate acestea, problemele etice apar atunci când prejudecățile cauzează rău altora.

Instrumentele AI care sunt influențate de prejudecățile umane pot amplifica acest rău la un nivel sistematic, mai ales că sunt integrate în organizațiile și sistemele care ne modelează viața modernă.

Luați în considerare lucruri precum chatboturi în comerțul electronic, diagnostice în domeniul asistenței medicale, recrutare în resurse umane și supraveghere în poliție. Toate aceste instrumente promit să sporească eficiența și să ofere soluții inovatoare, dar prezintă, de asemenea, riscuri semnificative dacă nu sunt gestionate cu atenție. Biazele din aceste tipuri de instrumente AI pot exacerba inegalitățile existente și pot crea noi forme de discriminare.

Imaginați-vă că o comisie de eliberare condiționată consultând un sistem AI pentru a determina probabilitatea ca un prizonier să se răzbune. Ar fi lipsit de etică ca algoritmul să facă o legătură între rasa sau sexul prizonierului în determinarea acestei probabilități.

Biazele în soluțiile de IA generativă pot duce, de asemenea, la rezultate discriminatorii. De exemplu, dacă un model AI este utilizat pentru a crea fișe de post, acesta trebuie conceput astfel încât să evite încorporarea unui limbaj părtinitor sau excluderea anumitor date demografice din greșeală. Neabordarea acestor prejudecăți ar putea duce la practici discriminatorii de angajare și la perpetuarea inegalităților în ceea ce privește forța de muncă.

Exemple precum acesta ilustrează de ce este esențial pentru organizații să practice IA responsabilă prin găsirea unor modalități de a atenua părtinirea înainte de a utiliza IA pentru a informa deciziile care afectează oamenii reali. Asigurarea echității, acurateței și transparenței în sistemele AI este esențială pentru protejarea persoanelor și menținerea încrederii publice.

Produs SAP

SAP Business AI

Obține rezultate în lumea reală cu AI-ul integrat în procesele tale de afaceri de bază.

Aflați mai multe

De unde vine prejudecata AI?

AI-ul poate proveni din mai multe surse care pot afecta corectitudinea și fiabilitatea sistemelor AI:

Prejudecățile față de date: discriminările prezente în datele utilizate pentru antrenarea modelelor AI pot duce la rezultate părtinitoare. Dacă datele de instruire reprezintă predominant anumite date demografice sau conțin prejudecăți istorice, IA va reflecta aceste dezechilibre în previziunile și deciziile sale.

Bias algoritmic: Acest lucru se întâmplă atunci când proiectarea și parametrii algoritmilor introduc din neatenție distorsiunea. Chiar dacă datele sunt imparțiale, modul în care algoritmii prelucrează și prioritizează anumite caracteristici față de altele poate duce la rezultate discriminatorii.

Prejudecata de decizie umană: Prejudecata umană, cunoscută și sub numele de părtinire cognitivă, poate pătrunde în sistemele AI prin decizii subiective în etichetarea datelor, dezvoltarea modelelor și alte etape ale ciclului de viață AI. Aceste prejudecăți reflectă prejudecățile și prejudecățile cognitive ale persoanelor și echipelor implicate în dezvoltarea tehnologiilor AI.

AI-ul generativ: modelele de AI generativ, cum ar fi cele utilizate pentru crearea de text, imagini sau videoclipuri, pot produce conținut părtinitor sau inadecvat pe baza prejudecăților prezente în datele lor de instruire. Aceste modele pot consolida stereotipurile sau pot genera rezultate care marginalizează anumite grupuri sau puncte de vedere.

Exemple de distorsiuni în AI

Impactul prejudecăților IA poate fi larg răspândit și profund, afectând diverse aspecte ale vieții societății și a indivizilor.

Iată câteva exemple despre modul în care distorsiunea în AI poate afecta diferite scenarii:

Punctajul de credit și creditarea: Algoritmii de punctare a creditelor pot dezavantaja anumite grupuri socio-economice sau rasiale. De exemplu, sistemele ar putea fi mai stricte pentru solicitanții din cartierele cu venituri mici, ceea ce ar duce la rate de respingere mai ridicate.

Angajarea și recrutarea: Algoritmii de screening și generatoarele de fișe de post pot perpetua prejudecățile la locul de muncă. De exemplu, un instrument ar putea favoriza termenii tradiționali asociați bărbaților sau ar putea penaliza diferențele de angajare, afectând femeile și îngrijitorii.

Sănătate: IA poate introduce prejudecăți în diagnostice și recomandări de tratament. De exemplu, sistemele instruite cu privire la datele de la un singur grup etnic ar putea diagnostica greșit alte grupuri.

Educație: Algoritmii de evaluare și admitere pot fi părtinitori. De exemplu, un AI care prezice succesul elevilor i-ar putea favoriza pe cei din școlile bine finanțate din medii cu resurse insuficiente.

Aplicarea legii: Algoritmii predictivi de menținere a ordinii pot duce la practici părtinitoare. De exemplu, algoritmii ar putea prezice rate mai mari ale criminalității în cartierele minoritare, rezultând în supra-poliție.

Recunoașterea facială: sistemele AI se luptă adesea cu acuratețea demografică. De exemplu, acestea ar putea avea rate de eroare mai mari, recunoscând tonurile mai închise ale pielii.

Recunoașterea vocală: Sistemele AI conversaționale pot arăta distorsiuni față de anumite accente sau dialecte. De exemplu, asistenții AI s-ar putea lupta cu vorbitori non-nativi sau accente regionale, reducând posibilitatea de utilizare.

Generarea imaginii: sistemele de generare de imagini bazate pe AI pot moșteni prejudecățile prezente în datele lor de antrenament. De exemplu, un generator de imagini ar putea subreprezenta sau reprezenta în mod eronat anumite grupuri rasiale sau culturale, conducând la stereotipuri sau excluderi în imaginile produse.

Recomandare de conținut: Algoritmii pot perpetua camerele de ecou. De exemplu, un sistem ar putea arăta conținut părtinitor din punct de vedere politic, consolidând punctele de vedere existente.

Asigurare: Algoritmii pot determina în mod incorect primele sau eligibilitatea. De exemplu, primele bazate pe coduri poștale ar putea duce la costuri mai mari pentru comunitățile minoritare.

Media socială și moderarea conținutului: Algoritmii de moderare pot impune în mod inconsecvent politici. De exemplu, postările utilizatorilor minoritari ar putea fi marcate incorect ca ofensatoare în comparație cu utilizatorii din grupul majoritar.

Care sunt impactul distorsiunii AI?

Impactul distorsiunii IA poate fi larg răspândit și profund. Dacă nu sunt abordate, prejudecățile privind IA pot adânci inegalitățile sociale, pot consolida stereotipurile și pot încălca legile.

Inegalitățile societale: prejudecățile legate de IA pot exacerba inegalitățile societale existente, afectând în mod disproporționat comunitățile marginalizate, ceea ce duce la noi disparități economice și sociale.

Consolidarea stereotipurilor: sistemele de IA părtinitoare pot consolida stereotipurile dăunătoare, perpetuând percepțiile negative și tratamentul anumitor grupuri în funcție de rasă, sex sau alte caracteristici. De exemplu, modelele de prelucrare a limbajului natural (NLP) pot asocia anumite joburi cu un singur gen, care perpetuează prejudecățile de gen.

Preocupări etice și juridice: Prezența prejudecăților în IA ridică preocupări etice și juridice semnificative, contestând corectitudinea și justiția deciziilor automatizate. Organizațiile trebuie să parcurgă aceste probleme cu atenție pentru a se conforma standardelor legale și pentru a respecta responsabilitățile etice.

Impactul economic: Algoritmii părtinitori pot dezavantaja pe nedrept anumite grupuri, limitând oportunitățile de angajare și perpetuând inegalitatea la locul de muncă. Platformele de servicii pentru clienți bazate pe AI, precum chatbot-urile, pot oferi servicii mai sărace anumitor date demografice, ducând la nemulțumire și la pierderea afacerii.

Impactul asupra activității: distorsiunea în sistemele IA poate duce la luarea unor decizii eronate și la o rentabilitate redusă. Companiile pot suferi prejudicii reputaționale dacă prejudecățile din instrumentele lor AI devin publice, ceea ce ar putea duce la pierderea încrederii clienților și a cotei de piață.

Impactul asupra sănătății și siguranței: în domeniul asistenței medicale, instrumentele de diagnosticare părtinitoare pot duce la diagnostice incorecte sau la planuri de tratament suboptime pentru anumite grupuri, exacerbând disparitățile în materie de sănătate.

Bunăstarea psihologică și socială: Expunerea regulată la deciziile de IA părtinitoare poate provoca stres și anxietate pentru persoanele afectate, afectând sănătatea lor mentală.

Cum să atenuați distorsiunea în IA

Abordarea și atenuarea eficientă a distorsiunii în sistemele AI necesită o abordare cuprinzătoare. Iată câteva strategii cheie care pot fi utilizate pentru a obține rezultate corecte și echitabile:

Tehnici de prelucrare prealabilă a datelor: Acest lucru implică transformarea, curățarea și echilibrarea datelor pentru a reduce influența discriminării înainte ca modelele AI să se antreneze asupra acestora.

Algoritmi conștienți de echitate: Această abordare codifică în reguli și instrucțiuni pentru a se asigura că rezultatele generate de modelele AI sunt echitabile pentru toate persoanele sau grupurile implicate.

Tehnici de postprocesare a datelor: Postprocesarea datelor ajustează rezultatele modelelor AI pentru a ajuta la asigurarea unui tratament echitabil. Spre deosebire de pre-procesare, această calibrare are loc după luarea unei decizii. De exemplu, un model lingvistic mare care generează text poate include un screener pentru a detecta și filtra discursurile de incitare la ură.

Auditare și transparență: Supravegherea umană este încorporată în procesele de audit al deciziilor generate de AI pentru părtinire și corectitudine. Dezvoltatorii pot, de asemenea, să ofere transparență cu privire la modul în care sistemele AI ajung la concluzii și să decidă câtă pondere să dea aceste rezultate. Aceste rezultate de verificare sunt apoi utilizate pentru a rafina și mai mult instrumentele IA implicate.

Eforturi de colaborare pentru a reduce distorsiunea AI

Pentru companiile care utilizează soluții AI pentru companii, abordarea distorsiunii IA necesită o abordare cooperativă care implică departamente cheie. Strategiile esențiale includ:

Implementarea acestor strategii permite organizațiilor să lucreze în direcția unor sisteme AI mai echitabile, promovând în același timp o cultură incluzivă la locul de muncă.

Tendințe emergente în dezvoltarea echitabilă a AI-ului

Mai multe tendințe emergente au scopul de a face IA mai echitabilă și mai echitabilă:

AI explicabil (XAI): Există o cerere din ce în ce mai mare de transparență în procesele de luare a deciziilor privind IA. AI-ul explicabil își propune să facă funcționarea sistemelor AI ușor de înțeles de către utilizatori, ajutându-i să înțeleagă modul în care sunt luate deciziile și asigurând responsabilitatea.

Design centrat pe utilizator: dezvoltarea AI se concentrează din ce în ce mai mult pe nevoile și perspectivele utilizatorilor, asigurându-se că sistemele sunt proiectate ținând cont de incluziune. Această tendință încurajează feedbackul din diverse grupuri de utilizatori pentru a informa procesul de dezvoltare.

Implicarea comunității: companiile încep să interacționeze cu comunitățile afectate de sistemele AI pentru a colecta informații și feedback, contribuind la asigurarea faptului că procesul de dezvoltare ia în considerare nevoile și preocupările diverselor părți interesate.

Utilizarea datelor sintetice: Pentru a aborda deficitul de date și distorsiunea, organizațiile explorează utilizarea datelor sintetice pentru a îmbunătăți seturile de antrenament. Această abordare permite crearea unor seturi de date diverse, fără a compromite confidențialitatea.

Corectitudine prin design: Această abordare proactivă integrează considerente de corectitudine în ciclul de viață al dezvoltării IA de la început, mai degrabă decât ca o gândire ulterioară. Aceasta include elaborarea de algoritmi corecți și efectuarea de evaluări ale impactului în timpul fazei de proiectare.

Colaborarea prin aceste abordări poate reduce semnificativ prejudecățile privind IA, asigurându-se că tehnologiile AI servesc binelui mai larg și aduc beneficii echitabile tuturor segmentelor societății.

Produs SAP

AI responsabil cu SAP

Află cum SAP livrează AI pe baza celor mai înalte standarde etice, de securitate și de confidențialitate.

Aflați mai multe

Citiți mai multe