Følg os

Kunstig intelligens

Der er et presserende behov for love til at forhindre AI-terrorisme

DEL:

Udgivet

on

Vi bruger din tilmelding til at levere indhold på måder, du har givet samtykke til, og til at forbedre vores forståelse af dig. Du kan til enhver tid afmelde dig.

Ifølge en counter-ekstremisme tænketank bør regeringer "hurtigt overveje" nye regler for at forhindre kunstig intelligens i at rekruttere terrorister.

Det er blevet sagt af Institute for Strategic Dialogue (ISD), at der er et "klart behov for lovgivning for at holde trit med de trusler, der placeres online af terrorister.

Dette kommer efter et eksperiment, hvor en chatbot "rekrutterede" den uafhængige terrorlovgiver til Storbritannien.

Det er blevet sagt af Storbritanniens regering, at de vil gøre "alt, hvad vi kan" for at beskytte offentligheden.

Ifølge Jonathan Hall KC, en uafhængig anmelder af terrorismelovgivningen for regeringen, er et af de vigtigste spørgsmål, at "det er svært at identificere en person, der i lov kan være ansvarlig for chatbot-genererede udtalelser, der opmuntrede til terrorisme."

Et eksperiment blev udført af Mr Hall på Character.ai, et websted, der giver brugerne mulighed for at deltage i chats med chatbots, der er bygget af andre brugere og udviklet af kunstig intelligens.

Han engagerede sig i samtale med en række forskellige bots, der så ud til at være konstrueret til at efterligne svarene fra andre militante og ekstremistiske grupper.

reklame

En topleder af Islamisk Stat blev endda omtalt som "en højtstående leder".

Ifølge hr. Hall gjorde botten et forsøg på at rekruttere ham og erklærede "total dedikation og hengivenhed" til den ekstremistiske gruppe, som er forbudt ved love i Det Forenede Kongerige, der forbyder terrorisme.

På den anden side udtalte hr. Hall, at der ikke var nogen overtrædelse af loven i Det Forenede Kongerige, fordi kommunikationen ikke var produceret af et menneske.

Ifølge hvad han sagde, burde nye regler holde ansvarlige både de websteder, der hoster chatbots, og de mennesker, der opretter dem.

Da det kom til de bots, som han stødte på på Character.ai, sagde han, at der "sandsynligvis var en vis chokværdi, eksperimentering og muligvis et satirisk aspekt" bag deres skabelse.

Derudover var Mr. Hall i stand til at udvikle sin helt egen "Osama Bin Laden"-chatbot, som han omgående slettede, hvilket viste en "ubegrænset entusiasme" for terroraktiviteter.

Hans eksperiment kommer i kølvandet på voksende bekymringer over de måder, hvorpå ekstremister muligvis kan udnytte forbedret kunstig intelligens.

Inden år 2025 kan generativ kunstig intelligens blive "brugt til at samle viden om fysiske angreb fra ikke-statslige voldelige aktører, herunder til kemiske, biologiske og radiologiske våben," ifølge forskning, der blev udgivet af regeringen i Det Forenede Kongerige i deres udgivelse i oktober.

ISD udtalte endvidere, at "der er et klart behov for lovgivning for at holde trit med det konstant skiftende landskab af online-terrortrusler."

Ifølge tænketanken er Online Safety Act i Det Forenede Kongerige, som blev vedtaget i lov i 2023, "primært rettet mod at håndtere risici fra sociale medieplatforme" snarere end kunstig intelligens.

Det hedder desuden, at radikale "har tendens til at være tidlige brugere af nye teknologier og konstant leder efter muligheder for at nå ud til nye målgrupper".

"Hvis AI-virksomheder ikke kan påvise, at de har investeret tilstrækkeligt i at sikre, at deres produkter er sikre, så bør regeringen omgående overveje ny AI-specifik lovgivning", hedder det videre i ISD.

Den nævnte dog, at ekstremistiske organisationers brug af generativ kunstig intelligens ifølge den overvågning, den har udført, er "relativt begrænset" på nuværende tidspunkt.

Karakter AI udtalte, at sikkerhed er en "topprioritet", og at det, Mr. Hall beskrev, var meget beklageligt og ikke afspejlede den slags platform, som virksomheden forsøgte at etablere.

"Hadefulde ytringer og ekstremisme er begge forbudt af vores servicevilkår" , ifølge organisationen.

"Vores tilgang til AI-genereret indhold udspringer af et simpelt princip: Vores produkter bør aldrig producere svar, der sandsynligvis vil skade brugere eller tilskynde brugere til at skade andre."

Med det formål at "optimere for sikre reaktioner," erklærede selskabet, at det trænede sine modeller på en måde.

Derudover erklærede den, at den havde en moderationsmekanisme på plads, som gjorde det muligt for folk at rapportere oplysninger, der overtrådte dens regler, og at det var forpligtet til at handle hurtigt, når indhold rapporterede overtrædelser.

Hvis det skulle komme til magten, har oppositionspartiet Labour i Storbritannien erklæret, at det ville være en kriminel krænkelse at lære kunstig intelligens at anstifte til vold eller radikalisere dem, der er modtagelige.

"alarm på de betydelige risici for national sikkerhed og offentlig sikkerhed", som kunstig intelligens udgjorde, udtalte Storbritanniens regering.

"Vi vil gøre alt, hvad vi kan for at beskytte offentligheden mod denne trussel ved at arbejde på tværs af regeringen og uddybe vores samarbejde med ledere af teknologivirksomheder, brancheeksperter og ligesindede nationer."

Et hundrede millioner pund vil blive investeret i et sikkerhedsinstitut for kunstig intelligens af regeringen i år 2023.

Del denne artikel:

EU Reporter udgiver artikler fra en række eksterne kilder, som udtrykker en bred vifte af synspunkter. Standpunkterne i disse artikler er ikke nødvendigvis EU Reporters.

trending