Yahoos misbrugsdetekterende algoritme fungerer 90% af tiden og det er et stort skridt fremad inden for sit felt

computer algoritme hjælp

Yahoos nyhedsartikler har masser af ubehagelige kommentarer, ligesom resten af ​​internettet, så Yahoo-teamet besluttede at bruge deres kommentarsektion for at udvikle en algoritme, der med succes kunne identificere de værste lovovertrædere. Deres ny misbrugsdetekterende algoritme arbejder 90 procent af tiden, hvilket de siger gør det mere effektivt end andre organisationers forsøg på at påtage sig lignende bedrifter og beskrevet som et stort skridt fremad i marken. 90 procent gør lyder ret godt, indrømmer jeg.

Kablet rapporterer, at Yahoo også frigiver den første offentligt tilgængelige kuraterede database med online hadefuld tale som en del af deres projekt til bekæmpelse af misbrug. Dette betyder, at andre websteder vil være i stand til at bruge Yahoos database med kommentarer til at designe deres egne algoritmer. Yahoos algoritme blev udviklet baseret på maskinlæring og også på brugerrapporterede data om deres kommentarsektioner.

Den sværeste del af enhver kommentarmodererende algoritme handler om falske positive. Mange algoritmer, der opdager misbrug, ser efter bestemte ord eller sætninger, som sludder eller almindelige fornærmelser, og markerer automatisk kommentarerne til moderering. Dette resulterer dog i, at kommentarer bliver markeret, selvom de henviser til en slur i sammenhæng med at sige, at det ikke er passende, for eksempel, eller hvis kommentaren er en sarkastisk efterligning af et trold. Yahoos algoritme kan tilsyneladende registrere bestemte talemønstre, og den er designet til at være i stand til at fortælle forskellen mellem jokey sarkasme og faktisk misbrug. (Selvfølgelig, hvis din sjove kommentar ikke kan skelnes fra faktisk misbrug, så er jeg ret sikker på, at algoritmen stadig vil markere den, men jeg kan ikke med sikkerhed sige, hvordan den del af AI fungerer.)

Yahoo tilvejebragte uddannede kommentarmoderatorer til at hjælpe med at perfektionere algoritmen, og de betalte også nogle utrænede moderatorer, og de fandt ud af, at de uddannede moderatorer var meget bedre til at finde ud af, hvilke kommentarer der var passende (slags en no brainer, men hej). I løbet af oprettelsen af ​​AI fandt Yahoo, at disse uddannede menneskelige moderators arbejde var afgørende for at opretholde algoritmens effektivitet og perfektionere dets detektionsteknikker.

Selvfølgelig, algoritmer har stadig skævheder , hvilket ville kræve et (forhåbentlig forskelligt) team af menneskelige moderatorer at fortsætte med at gentage de metoder, der blev brugt til at klassificere kommentarer. Det lyder som et hårdt job, men i det mindste forstår Yahoo nu vigtigheden af ​​at træne og værdsætte rollerne for både deres veluddannede menneskelige moderatorer og deres nye AI-kollega.

er arkiv af vores eget pengeskab

(via Det næste web , billede via Michael Cordedda / Flickr )