Google lägger till en kodfri datorvisionsplattform till Vertex AI

Google lägger till en kodfri datorvisionsplattform till Vertex AI

[ad_1]

På Google Cloud Next-konferensen introducerade Google en ny datorvisionsplattform, Vertex AI Vision, som förenklar processen att bygga analyser baserade på livekameraströmmar och videor. För närvarande, i förhandsvisning, är Vertex AI Vision en förlängning av AutoML Vision som kan träna modeller att utföra bildklassificering och objektdetektering.

Vertex AI Vision tillhandahåller en arbetsyta för att bygga end-to-end maskininlärningspipelines som täcker hela spektrumet av datorseende slutledning och analys. Den riktar sig till affärsbeslutsfattare och analytiker som vill bygga analyser baserade på datorvision utan att ta itu med komplex kod. Vertex AI Vision har också en SDK för utvecklare för att utöka funktionaliteten och bädda in utdata i webb- och mobilapplikationer.

Företag har redan investerat i dussintals övervakningskameror och CCTV som ständigt genererar videoströmmar. Å andra sidan finns det flera förtränade modeller som kan utföra sofistikerad bildklassificering, objektigenkänning och bildsegmentering. Men att koppla ihop punkterna mellan datakällorna (kameror) och ML-modeller för att få insikter och intelligenta analyser kräver avancerade färdigheter. Kunder måste anställa skickliga ML-ingenjörer för att bygga slutledningspipelines för att få handlingsbara insikter.

Vertex AI Vision tar sig an denna utmaning genom att tillhandahålla en kodfri miljö som gör det tunga lyftet. Användare kan enkelt ansluta fjärrströmmande ingångar från befintliga kameror till ML-modeller för att göra slutledningar. Utdata från videoströmmarna och modellerna lagras i ett Vision Warehouse för att extrahera metadata. Samma utdata kan lagras i en BigQuery-tabell, vilket gör det enkelt att fråga och analysera data. Det är också möjligt att se strömutmatningen i realtid för att validera och övervaka noggrannheten i inferenspipelinen.

Vertex AI Vision har flera förtränade modeller som snabbt kan integreras i pipeline. Beläggningsanalysmodellen låter användare räkna personer eller fordon med specifika indata som lagts till i videorutor. Modellen Personoskärpa skyddar integriteten för personer som visas i inmatade videor genom förvrängning, som att maskera eller sudda ut människors utseende i utdatavideor. Person-/fordonsdetektormodellen kan upptäcka och räkna personer eller fordon i videoramar. Rörelsefiltermodellen minskar beräkningstiden genom att trimma ner långa videosektioner till mindre segment som innehåller en rörelsehändelse.

Förutom de förtränade modellerna kan kunder importera befintliga modeller som tränats inom Vertex AI-plattformen. Detta utökar funktionaliteten genom att blanda och matcha olika modeller.

Den nya plattformen är baserad på Googles ansvarsfulla AI-principer om rättvisa, säkerhet, integritet och säkerhet, inkludering och transparens. Google hävdar att den nya Vision AI Vision-plattformen bara kommer att kosta en tiondel av valutautbudet. Under förhandsgranskningen avslöjas inte prisinformationen ännu. Tjänsten är endast tillgänglig i us-central1-regionen.

I sin nuvarande form är Vertex AI Vision inte integrerad med Anthos och kan inte köras i ett hybridläge i datacentret eller vid kanten. Kunder förväntas ta in videoströmmar till Google Cloud för att köra inferenspipeline. Branschvertikaler som sjukvård och fordon som kräver hög genomströmning och låg latens kan inte dra fördel av Vertex AI Vision. Google måste överväga att distribuera Vision AI-applikationerna vid kanten med utdata lagrad i ett lokalt lager.

Googles Vertex AI Vision konkurrerar med no-code/low-code-plattformar som t.ex Amazon SageMaker Jumpstart och Azure ML Designer. Med uppkomsten av stora språkmodeller och framsteg inom naturlig språkbehandling baserad på transformatorer, förvänta dig att se utvecklingsplattformarna utan kod utökas för att stödja konversations-AI.

[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *