Følg os

computerteknologi

OASI, den første søgemaskine til at finde de algoritmer, som regeringer og virksomheder bruger på borgere

DEL:

Udgivet

on

Vi bruger din tilmelding til at levere indhold på måder, du har givet samtykke til, og til at forbedre vores forståelse af dig. Du kan til enhver tid afmelde dig.

  • OASI, Observatory of Algorithms with Social Impact, skabt af Eticas Foundation, indsamler oplysninger fra snesevis af algoritmer, der bruges af offentlige administrationer og virksomheder rundt om i verden for at lære mere om deres sociale indvirkning.
  • Målet er at give offentligheden adgang til oplysninger om både regeringer og virksomhedsalgoritmer og at vide, hvem der bruger dem, hvem der udvikler dem, hvilke trusler de repræsenterer, og om de er blevet revideret, blandt andre kendetegn.
  • Algoritme bias og diskrimination forekommer normalt baseret på alder, køn, race eller handicap, blandt andre værdier, men på grund af den generelle mangel på gennemsigtighed er det stadig ikke muligt at kende alle dens konsekvenser for de berørte grupper.

Eticas Foundation, en non-profit organisation, der fremmer ansvarlig brug af algoritmer og kunstig intelligens (AI) -systemer, har oprettet Observatory of Algorithms with Social Impact (OASI). Dette observatorium introducerer en søgemaskine til at vide mere om de værktøjer, der træffer vigtige automatiserede beslutninger om borgere, forbrugere og brugere rundt om i verden.

I øjeblikket automatiserer både virksomheder og offentlige forvaltninger beslutninger takket være algoritmer. Imidlertid, dens udvikling og idriftsættelse følger ikke eksterne kvalitetskontroller, og den er heller ikke så gennemsigtig, som den burde være, hvilket efterlader befolkningen ubeskyttet. Med denne søgemaskine kan alle finde ud af mere om disse algoritmer: hvem har udviklet dem, hvem bruger dem, deres anvendelsesområde, om de er blevet revideret, deres mål eller deres sociale indvirkning og de trusler, de repræsenterer.

I øjeblikket, OASI indsamler 57 algoritmer, men forventer at nå de 100 i de følgende måneder. Blandt dem anvendes 24 allerede i USA af regeringen og Big Tech -virksomheder. For eksempel ShotSpotter, et algoritmeværktøj, der er installeret af Oakland Police Department for at bekæmpe og reducere våbenvold gennem lydovervågningsmikrofoner, og en algoritme til at forudsige potentielt overgreb mod børn og omsorgssvigt, der bruges af Allegheny County, Pennsylvania. Et andet eksempel fra en virksomhed er Rekognition, Amazons ansigtsgenkendelsessystem, som blev revideret af MIT Media Lab i begyndelsen af ​​2019 og viste sig at fungere væsentligt dårligere, når man identificerede en persons køn, hvis de var kvinder eller mørkere.

Den mest almindelige forskelsbehandling er på grund af alder, køn, race eller handicap, produceret utilsigtet af udviklere, der mangler socioøkonomiske færdigheder til at forstå virkningen af ​​denne teknologi. I denne forstand designer disse ingeniører algoritmerne udelukkende baseret på tekniske færdigheder, og da der ikke er nogen eksterne kontroller, og det ser ud til at fungere som forventet, bliver algoritmen ved med at lære af mangelfulde data.

I betragtning af den manglende gennemsigtighed om, hvordan nogle af disse algoritmer fungerer, udvikler Eticas Foundation, bortset fra lanceringen af ​​OASI, et projekt med eksterne audits. Den første er VioGén, algoritmen, der bruges af det spanske indenrigsministerium til at tildele risiko til kvinder, der søger beskyttelse efter at have lidt tilfælde af vold i hjemmet. Eticas vil foretage en ekstern revision gennem reverse engineering og administrative data, interviews, rapporter eller designscripts for at indsamle resultater i stor skala. Alt dette med det formål at opdage muligheder for forbedringer i beskyttelsen af ​​disse kvinder.

"På trods af eksistensen af ​​algoritmiske kontrol- og revisionsmetoder for at sikre, at teknologien respekterer gældende regler og grundlæggende rettigheder, fortsætter administrationen og mange virksomheder med at døve øre for anmodninger om gennemsigtighed fra borgere og institutioner," erklærede Gemma Galdon, grundlægger af Eticas Foundation . ”Ud over OASI har vi efter flere år, hvor vi har udviklet mere end et dusin audits for virksomheder som Alpha Telefónica, FN, Koa Health eller Inter-American Development Bank, også udgivet en Guide to Algorithmic Audit at alle kan udføre dem. Målet er altid at øge bevidstheden, give gennemsigtighed og genoprette tilliden til teknologi, hvilket i sig selv ikke behøver at være skadeligt. ”

I denne forstand er algoritmer, der er uddannet i maskinindlæringsteknikker ved hjælp af en stor mængde historiske data til at "lære" dem at vælge baseret på tidligere beslutninger. Normalt er disse data ikke repræsentative for den socioøkonomiske og kulturelle virkelighed, de anvendes på, men ved mange lejligheder afspejler de en uretfærdig situation, som ikke er beregnet til at blive vedvaret. På denne måde ville algoritmen teknisk tage "korrekte" beslutninger i henhold til dens træning, selvom virkeligheden er, at dens anbefalinger eller forudsigelser er forudindtaget eller diskriminerende.

reklame

Om Eticas Foundation

Eticas Foundation arbejder på at omsætte til tekniske specifikationer de principper, der styrer samfundet, såsom lige muligheder, gennemsigtighed og ikke-diskrimination, der er i de teknologier, der træffer automatiserede beslutninger om vores liv. Det søger en balance mellem ændrede sociale værdier, de tekniske muligheder for de seneste fremskridt og de juridiske rammer. Til dette formål reviderer den algoritmer, verificerer, at juridiske garantier gælder for den digitale verden, især for kunstig intelligens, og udfører et intensivt arbejde med at øge bevidstheden og udbrede behovet for ansvarlig kvalitetsteknologi.

Del denne artikel:

EU Reporter udgiver artikler fra en række eksterne kilder, som udtrykker en bred vifte af synspunkter. Standpunkterne i disse artikler er ikke nødvendigvis EU Reporters.

trending