Billedannotering i computersyn og dets almindelige misforståelser
Computervision lærer maskiner at forstå og fortolke den visuelle verden omkring dem selv. Det er en af de hurtigst voksende anvendelser af kunstig intelligens og bliver brugt på tværs af mange industrier til at løse problemer.
Computersyn er et værktøj, der hjælper med at diagnosticere sundhedsvæsenet. Det bruges til at spore bevægelser af autonome køretøjer i transport. Det verificerer dokumenter og identifikationskort i bank og finans. Dette er blot nogle af de mange måder, hvorpå computersyn ændrer verden.
Billedannotering er afgørende for at opnå disse fantastiske evner. Billedannotering er en form for datamærkning. Det involverer at mærke bestemte dele af et billede, så AI-modellen kan forstå dem. Sådan kan førerløse biler læse og fortolke trafiksignaler og lys og styre uden om fodgængere.
Der kræves et tilstrækkeligt visuelt datasæt og nok personer til at kommentere billeder. Dette giver dig mulighed for at forberede billederne til din AI-model. Annotering af billeder kan udføres ved hjælp af en række forskellige teknikker, herunder at tegne kasser omkring objekter eller bruge linjer og polygoner til at afgrænse målobjekter.
AI er et emne, der har mange misforståelser. Labelify leverer professionelt administrerede teams, der annoterer billeder med høj nøjagtighed til maskinlæringsapplikationer. Dette er blevet gjort i løbet af det seneste årti. Dette er nogle af de myter, som vi har aflivet i vores bestræbelser på at mærke de data, der driver AI-systemer.
Myte 1 - AI kan kommentere billeder lige så godt som mennesker.
Automatisering forbedrer hurtigt kvaliteten af automatiserede billedmærkningsværktøjer. Forannotering af visuelle datasæt kan hjælpe med at spare tid og penge. Automatisering med involverede mennesker er en fantastisk måde at spare tid på. Disse fordele kommer med en betydelig pris. Dårligt overvåget læring kan føre til fejl, der får modellen til at blive mindre præcis over tid. Dette er kendt som AI-drift.
Automatisk mærkning er hurtigere, men den mangler nøjagtighed. Computersyn kan fortolke billeder, som mennesker gør. Derfor kræver billedannotering menneskelig ekspertise.
Myte 2 – Det er lige meget, hvor langt en annotering er med en pixel.
Selvom det er nemt at se en enkelt pixel på en skærm som en prik, når det kommer til computersynsdata, kan selv mindre fejl i billedannotering have alvorlige konsekvenser. Et eksempel: Kvaliteten af annotationerne på en medicinsk CT-scanning kan gøre en forskel ved diagnosticering af sygdommen. En enkelt fejl under træning kan gøre hele forskellen i et autonomt køretøjs liv eller død.
Selvom ikke alle computervisionsmodeller kan forudsige liv og død, er nøjagtighed i mærkningsfasen en vigtig faktor. To problemer kan forårsages af annoteret information af lav kvalitet: et, når modellen trænes, og for det andet, når den bruger annoteringen til at lave fremtidige forudsigelser. Du skal uddanne højtydende computervisionsmodellere ved hjælp af højkvalitets annoterede data.
Myte 3 – Det er nemt at administrere billedannoteringer internt
Billedkommentarer kan ses som en enkel, gentagne opgave. Det kræver ikke nogen specialisering i kunstig intelligens. Det betyder dog ikke, at du skal gøre alt arbejdet selv. Billedannotering kræver adgang til de rigtige værktøjer og træning. Det kræver også viden om dine forretningsregler, hvordan du håndterer kantsager og kvalitetskontrol. Dine dataforskere skal også mærke billederne. Dette kan være meget dyrt. På grund af arbejdets gentagne karakter og den kedelige karakter af skalering af interne teams, kan det være svært at skalere. Dette kan føre til medarbejderomsætning. Du skal også administrere annoteringsteamets onboarding, træning og ledelse.
En af de mest afgørende beslutninger, du vil tage, er at vælge de rigtige personer, der vil kommentere dine data for at understøtte computersyn. Et administreret, eksternt team er bedst til at kommentere store mængder data over lange perioder. Det er muligt at kommunikere direkte med dette team og foretage justeringer af din annoteringsproces, mens du træner og tester din model.
Myte #4: Billedannotering kan udføres i skala ved hjælp af crowdsourcing.
Crowdsourcing giver dig adgang til en stor gruppe af arbejdere samtidigt. Crowdsourcing har sine begrænsninger, hvilket gør det vanskeligt at bruge til annotering i skala. Crowdsourcing er afhængig af anonyme medarbejdere. Arbejdernes identitet ændrer sig over tid, hvilket gør dem mindre ansvarlige for kvalitet. Crowdsourcing giver dig ikke mulighed for at drage fordel af, at medarbejdere bliver mere fortrolige med dit domæne, use case, annoteringsregler og andre detaljer over tid.
Crowdsourcede arbejdere har en anden ulempe. Denne tilgang bruger ofte konsensusmodellen til kvalitetsannoteringer. Det betyder, at flere personer er tildelt den samme opgave, og det rigtige svar kommer fra flertallet af arbejdere. Det er en omkostningseffektiv måde at få den samme opgave udført flere gange.
Crowdsourcing kan være en god mulighed, hvis du arbejder på et enkelt projekt eller tester et proof-of-concept for din model. For længerevarende annoteringsprojekter, der er mere præcise, kan administrerede outsourcede teams være et bedre valg.
Den nederste linje om billedannotering
Dårligt annoterede billeder kan forårsage problemer, når de bruges til at træne en computervisionsmodel. Annoteringer af dårlig kvalitet kan have en negativ indvirkning på din modelvalidering og træningsproces. Din model vil heller ikke være i stand til at træffe fremtidige beslutninger baseret på de annoteringer, den har modtaget. Du kan opnå bedre annoteringskvalitet og i sidste ende bedre ydeevne for din computer-vision-model ved at arbejde med den rigtige arbejdsstyrkepartner.
Få mere at vide om billedannotering i vores guide Billedanmærkning til computersyn.