Googles AR-översättningsglasögon är fortfarande bara vaporware

Googles AR-översättningsglasögon är fortfarande bara vaporware

[ad_1]

I slutet av sin I/O-presentation på onsdagen drog Google fram en överraskning av “en till”-typ. I en kort videoGoogle visade upp ett par augmented reality-glasögon som har ett syfte — att visa hörbara språköversättningar mitt framför dina ögon. I videon kallade Googles produktchef Max Spear möjligheten hos denna prototyp för “undertexter för världen”, och vi ser familjemedlemmar kommunicera för första gången.

Vänta nu bara en sekund. Liksom många andra har vi använt Google Översätt tidigare och ser till stor del på det som ett mycket imponerande verktyg som råkar göra många pinsamma misständningar. Även om vi kan lita på att den ger oss vägbeskrivningar till bussen, är det inte i närheten av samma sak som att lita på att den korrekt tolkar och förmedlar våra föräldrars barndomsberättelser. Och har inte Google sagt att det äntligen bryter ner språkbarriären tidigare?

Under 2017 marknadsförde Google realtidsöversättning som en funktion i sina ursprungliga Pixel Buds. Vår tidigare kollega Sean O’Kane beskrev upplevelsen som “en lovvärd idé med en beklaglig avrättning” och rapporterade att några av personerna han provade den med sa att det lät som om han var en femåring. Det är inte riktigt vad Google visade upp i sin video.

Dessutom vill vi inte gå förbi det faktum att Google lovar att denna översättning kommer att ske inuti ett par AR-glasögon. Inte för att träffa på en öm punkt, men verkligheten med förstärkt verklighet har inte riktigt kommit ikapp Googles konceptvideo från ett decennium sedan. Du vet, den som fungerade som en föregångare till den mycket förtalade och pinsamt att ha på sig Google Glass?

För att vara rättvis verkar Googles AR-översättningsglasögon mycket mer fokuserade än vad Glass försökte åstadkomma. Från vad Google visade, är de menade att göra en sak – visa översatt text – inte fungera som en omgivande datorupplevelse som kan ersätta en smartphone. Men även då är det inte lätt att tillverka AR-glasögon. Även en måttlig mängd omgivande ljus kan göra visning av text på genomskinliga skärmar mycket svårt. Det är tillräckligt utmanande att läsa undertexter på en TV med lite bländning från solen genom ett fönster; föreställ dig nu den upplevelsen men fastspänd i ansiktet (och med den extra pressen att delta i en konversation med någon som du inte kan förstå på egen hand).

Men hej, tekniken går snabbt – Google kanske kan övervinna ett hinder som har gjort det hindrade sina konkurrenter. Det skulle inte ändra det faktum att Google Translate inte är en magisk kula för samtal på flera språk. Om du någonsin har provat att ha en faktisk konversation genom en översättningsapp, vet du förmodligen att du måste prata långsamt. Och metodiskt. Och klart. Om du inte vill riskera en förvrängd översättning. En smula, och du kanske bara är klar.

Människor pratar inte i ett vakuum eller som maskiner gör. Precis som vi byter kod när vi pratar med röstassistenter som Alexa, Siri eller Google Assistant, vet vi att vi måste använda mycket enklare meningar när vi har att göra med maskinöversättning. Och även när vi talar rätt kan översättningen fortfarande bli besvärlig och misstolkad. Några av våra Verge kollegor som talar flytande koreanska påpekade det Googles egen pre-roll-nedräkning för I/O visade en hedersversion av “Välkommen” på koreanska som ingen faktiskt använder.

Den där milt pinsamma flubben bleknar i jämförelse med det faktum att, enligt tweets från Rami Ismail och Sam Ettingervisade Google över ett halvdussin baklänges, trasiga eller på annat sätt felaktiga skript på en bild under sin Translate-presentation. (Android-polisen anteckningar att en Google-anställd har erkänt misstaget och att det har korrigerats i YouTube-versionen av keynote.) För att vara tydlig är det inte så att vi förväntar oss perfektion – men Google försöker tala om för oss att det är nära att knäcka realtidsöversättning, och den typen av misstag gör att det verkar otroligt osannolikt.

Google försöker lösa en oerhört mycket komplicerat problem. Att översätta ord är lätt; att räkna ut grammatik är svårt men möjligt. Men språk och kommunikation är mycket mer komplexa än bara dessa två saker. Som ett relativt enkelt exempel talar Antonios mamma tre språk (italienska, spanska och engelska). Hon kommer ibland att låna ord från språk till språk mitt i meningen – inklusive hennes regionala italienska dialekt (som är som ett fjärde språk). Den typen av saker är relativt lätta för en människa att analysera, men kunde Googles prototypglasögon hantera det? Bry dig inte om de mer röriga delarna av konversationen som oklara referenser, ofullständiga tankar eller antydningar.

Det är inte så att Googles mål inte är beundransvärt. Vi vill absolut leva i en värld där alla får uppleva vad forskningsdeltagarna i videon gör och stirrar med storögd förundran när de ser sina nära och käras ord dyka upp framför dem. Att bryta ner språkbarriärer och förstå varandra på sätt som vi inte kunde tidigare är något som världen behöver mycket mer av; det är bara det att det är en lång väg kvar innan vi når den framtiden. Maskinöversättning är här och har varit det länge. Men trots den uppsjö av språk den kan hantera, talar den inte mänskligt än.


Relaterad:



[ad_2]

Leave a Reply

Your email address will not be published.