iOS 15 Live-tekst en visuele look-up versus Google Lens: hoe ze zich verhouden

(Afbeelding tegoed: TemplateStudio)

iOS 15 brengt wat nieuwe intelligentie naar je telefoon in de vorm van Live Text en Visual Look Up. Beide functies leunen zwaar op de neurale motor die deel uitmaakt van de processor van je iPhone en werken om de camera van de telefoon te veranderen in een apparaat dat niet alleen foto's maakt, maar ook kan analyseren wat er op de foto's staat en je meer met die informatie laat doen.

Met Live Text van iOS 15 kan uw camera nu tekst in afbeeldingen vastleggen en kopiëren, zodat u de tekst in documenten, berichten en e-mails kunt plakken. U kunt zelfs webadressen opzoeken en telefoonnummers bellen die op uw foto's worden weergegeven. Ondertussen is Visual Look Up een geweldige manier om meer te weten te komen over de wereld om je heen, aangezien je omhoog kunt vegen vanaf je foto om informatie op te zoeken over oriëntatiepunten, schilderijen, boeken, bloemen en dieren.



  • Black Friday deals: bekijk nu al de beste aanbiedingen!

Als dit bekend klinkt, komt dat omdat Google vergelijkbare functies heeft aangeboden via Google Lens, dat is ingebouwd in zijn eigen Foto's-app en is uitgerold naar veel Android-telefoons. Apple is nooit verlegen om functies toe te voegen die rivaliserende bedrijven als eerste hebben gekregen, vooral als het die functies kan presenteren op (wat het denkt) een betere manier is.

We zullen moeten wachten tot de volledige versie van iOS 15 in de herfst uitkomt om te zien of Apple daarin is geslaagd. Maar met behulp van de openbare bèta van iOS 15 kunnen we zien hoe ver Live Text en Visual Look Up zijn, vooral in vergelijking met wat beschikbaar is op Android-telefoons via Google. Laten we echter eerst eens nader bekijken wat Live Text en Visual Look Up voor de iPhone brengen in de iOS 15-update.

iOS 15 Live Text: wat u kunt doen en hoe het werkt

Voordat je aan de slag gaat met Live Text of Visual Look Up, moet je ervoor zorgen dat je een compatibele telefoon hebt - en in dit geval is het niet genoeg om iOS 15 te kunnen gebruiken. Omdat beide functies zo sterk afhankelijk zijn van neurale verwerking, je hebt een apparaat nodig dat wordt aangedreven door ten minste een A12 Bionic-chip , wat de iPhone XR, iPhone XS of iPhone XS Max betekent, plus elke telefoon die na dat trio van 2018 uitkwam.

(Afbeelding tegoed: TemplateStudio)

Live Text is in staat om alle soorten tekst te herkennen, of het nu gaat om gedrukte tekst op een foto, handgeschreven tekst op een stuk papier of krabbels op een whiteboard. De functie werkt niet alleen in Foto's, maar ook in screenshots, Quick Look en zelfs afbeeldingen die je tegenkomt tijdens het browsen in Safari. Bij de lancering van iOS 15 zal Live Text zeven talen ondersteunen — naast Engels zal het ook Chinees, Portugees, Frans, Italiaans, Spaans en Duits herkennen.

Samsung 50 inch 4k tv

De Camera-app in iOS 15 biedt een voorbeeld van wat Live Text vastlegt; tik gewoon op het tekstpictogram in de rechterbenedenhoek van de zoeker. Van daaruit kunt u tekst selecteren om te kopiëren, te vertalen, te bekijken of te delen met andere mensen. Hoe handig dat ook is, ik denk dat het meest praktische nut is om tekst te selecteren uit foto's die al in je fotobibliotheek staan.

(Afbeelding tegoed: TemplateStudio)

De functie legt meer vast dan alleen tekst. Je kunt ook telefoonnummers verzamelen, en een lange druk op het telefoonnummer in een foto roept een menu op waarmee je kunt bellen, sms'en of FaceTimen met het nummer; je kunt dat nummer ook met een tik toevoegen aan je Contacten-app. (De functie werkt ook in de live preview van de Camera-app - tik gewoon op de tekstknop in de benedenhoek en druk vervolgens lang op het nummer.) Iets soortgelijks gebeurt wanneer u lang op een webadres drukt (u hebt de mogelijkheid om te openen een link in uw mobiele browser) of een fysiek adres (u kunt een routebeschrijving opvragen in Kaarten).

iOS 15 Visual Look Up: wat u kunt doen en hoe het werkt

Visual Look Up is een manier om meer informatie te krijgen over waar u ook foto's van maakt. De functie is handig om achtergrondinformatie op te zoeken over alle bezienswaardigheden en interessante plaatsen die u tijdens eerdere vakanties hebt bezocht, maar het is ook handig om meer te weten te komen over boeken, planten en andere voorwerpen.

Ga naar de Foto's-app in iOS 15 en selecteer een foto. Meestal moet u omhoog vegen, waardoor details over de afbeelding worden weergegeven, zoals waar u deze hebt gemaakt, op welk apparaat, enzovoort. Maar als Visual Look Up iets toe te voegen heeft, verschijnt er een pictogram op de foto zelf. Tik daarop en je ziet een verzameling Siri-links en vergelijkbare afbeeldingen van internet die je meer kunnen vertellen over waar je naar kijkt.

beste straatrace-game ps4

(Afbeelding tegoed: TemplateStudio)

Het pictogram waarop u tikt, verandert op basis van wat u onderzoekt met Visual Look Up. Een schilderij levert een kunstachtig icoon op, terwijl een blad aangeeft dat Visual Look Up informatie over planten kan delen.

U hoeft de foto's niet recent of zelfs niet met een iPhone te hebben gemaakt om ze te kunnen herkennen. Een foto van mij die 12 jaar geleden met een Canon PowerShot S200 voor de Tower Bridge in Londen stond, werd herkend. Maar Visual Look Up kan op dit moment nogal wisselvallig zijn, aangezien Apple de functie voor de definitieve release van iOS 15 uitwerkt. Soms krijg je info; soms doe je dat niet.

iOS 15 Live-tekst en visuele look-up versus Google Lens: hoe ze zich verhouden

Om erachter te komen hoe de eerste inspanningen van Apple zich verhouden tot wat Android-gebruikers nu leuk vinden, maakte ik een wandeling door San Francisco, gewapend met een iPhone 11 Pro Max met de iOS 15-bèta en a Google Pixel 4a 5G met Android 11. Ik maakte de foto's, ging naar huis en deed mijn vergelijkingen daar in plaats van in het veld te wonen. Dit is wat we hebben gevonden.

Tekst vastleggen: Voordat ik stopte voor de lunch in een van mijn favoriete eetgelegenheden, nam ik een foto van de buitenkant van het restaurant. Ik moest inzoomen op de foto van de iPhone om er zeker van te zijn dat ik de bedoelde tekst vastlegde, maar Live Text heeft het woord Cheeseburger met succes gekopieerd, ook al staat dat schuin in het bord. (Het voegde een overbodig haakje toe, maar wat kun je doen?) Live Text greep ook de handgeschreven tekst die Baileys & Irish Coffee Hot Toddy belooft, hoewel het struikelde bij het vertalen van dat ampersand.

Wat Live Text heeft vastgelegd (links) en wat Live Text heeft gekopieerd (rechts)(Afbeelding tegoed: TemplateStudio)

Google Lens herkende met succes de ampersand in het handgeschreven teken en was ook in staat om de cheeseburger-tekst vast te leggen. Ik vond echter dat de tekstselectieknoppen voor deze specifieke afbeelding minder nauwkeurig waren. Het handgeschreven bord kopieerde ook de tekst van het Giants-logo terwijl ik ook de hele tekst van het Cheeseburger-bord moest kopiëren. In deze test houdt Live Text tenminste stand tegen Google Lens.

Wat Google Lens heeft vastgelegd (links) en wat Google Lens heeft gekopieerd (rechts)(Afbeelding tegoed: TemplateStudio)

Telefoonnummers: Om de mogelijkheid te testen om telefoonnummers te bellen die ik had vastgelegd met de camera van mijn telefoon, maakte ik een opname van een parkeerplaatsbord. Ik vind het lang indrukken van Live Text op het nummer geen bijzonder intuïtieve functie, maar het pop-upmenu verscheen zonder problemen. Google Lens was een beetje kieskeuriger. Ik moest zorgvuldig de telefoonnummertekst selecteren, inclusief het netnummer - pas toen verscheen er een beloptie in het menu. Ik denk dat Apple hier misschien een elegantere oplossing heeft bedacht dan Google.

Live-tekst (links) versus Google Lens (rechts) die telefoonnummers herkent(Afbeelding tegoed: TemplateStudio)

Handschrift: We hebben Live Text en Google Lens al hun spullen zien laten zien met geschreven tekst op de Red's Java Hut-signalisatie, maar hoe zit het met het daadwerkelijke handschrift? Wetende dat u uw schrijven gemakkelijk in notities kunt kopiëren, kan een echte tijdbesparing zijn als het gaat om het transcriberen van notities van lezingen, vergaderingen of brainstormsecties.

Ik zou mijn eigen handschriftstijl omschrijven als 'haastig gekrabbeld losgeldbriefje', dus het vastleggen ervan is een behoorlijke test voor zowel Live Text als Google Lens. Het is een taak die Live Text simpelweg niet aankan. Ten eerste, zoals je kunt zien in de schermafbeelding, heeft het alleen elke andere regel vastgelegd uit mijn aantekeningen over mogelijke iPhone 11-verhalen uit 2019. De tekst die ik in Notes kon plakken, bevatte geen echt woord van wat ik had opgeschreven - op de een of andere manier werd 'Functies om in/uit te schakelen' 'Fatboris ta Enalla/Dinlille 7.' Terug naar de tekentafel met deze functie, denk ik.

Wat Live Text heeft vastgelegd (links) en wat het heeft getranscribeerd (rechts)(Afbeelding tegoed: TemplateStudio)

Google Lens doet het hier beter, al is het maar net. Het legt de meeste, maar niet alle handgeschreven tekst vast (en een deel van de tekst uit de boeken op de achtergrond). De geplakte notities lijken op echte menselijke taal, met enkele vertaalfouten. ('Uitschakelen' wordt 'Disalle.') Het is niet perfect, maar het is veel verder dan wat Apple te bieden heeft.

Wat Google Lens heeft vastgelegd (links) en wat het heeft getranscribeerd (rechts)(Afbeelding tegoed: TemplateStudio)

URL's: We konden het vermogen van Live Text en Google Lens testen om webadressen of fysieke adressen op te zoeken, en ik besloot voor het eerste te gaan. Door lang op de URL in Foto's te drukken, kreeg ik de mogelijkheid om een ​​link in Safari te openen; Ik zou ook op een Live Text-knop op de afbeelding kunnen tikken en op de URL kunnen tikken om automatisch naar Safari te springen. Op dezelfde manier herkende Google Lens op de Pixel 4a de tekst en gaf me een knop die me naar de juiste URL in Chrome bracht. Deze functie werkt net zo goed op beide telefoons.

Live-tekst (links) versus Google Lens (rechts) die webadressen herkent(Afbeelding tegoed: TemplateStudio)

Filmposter: Wat betreft Visual Look Up, kan het misschien boeken herkennen - het identificeerde met succes de biografie van David Itzkoff Robin Williams, en linkte zelfs naar recensies - maar filmposters lijken het te verwarren. Een opname van de Black Widow-poster buiten mijn plaatselijke bioscoopcomplex leverde geen aanvullende informatie op de iPhone op. Hoewel dit niet de beste foto's zijn, leverde Google Lens op de Pixel 4a nog steeds links naar recensies en vergelijkbare afbeeldingen.

iOS 15 Visual Look Up (links) versus Google Lens (rechts)(Afbeelding tegoed: TemplateStudio)

Gebouwen: Ik zag het Ferry Building alleen van een afstand tijdens mijn wandeling door San Francisco, maar ik dacht dat het een goede test zou zijn om te zien hoe ver de visie van Visual Look Up kan reiken. Het antwoord is blijkbaar niet zo ver, omdat ik geen informatie heb gekregen over dit redelijk herkenbare armatuur uit San Francisco. Google Lens had niet zoveel problemen, slechte hoek en zo.

iOS 15 Visual Look Up (links) versus Google Lens (rechts)(Afbeelding tegoed: TemplateStudio)

gratis vpn-app voor iphone

oriëntatiepunt: Visual Look Up kan in ieder geval oriëntatiepunten op afstand herkennen. Zelfs vanaf de kustlijn kan de nieuwe functie van iOS 15 informatie over de Bay Bridge ophalen en zelfs een Siri Knowledge-samenvatting bieden van de specificaties van de brug. De resultaten van Google Lens waren meer gericht op afbeeldingen, hoewel er een zoeklink was die me naar Google-resultaten bracht.

iOS 15 Visual Look Up (links) versus Google Lens (rechts)(Afbeelding tegoed: TemplateStudio)

Standbeeld: Het spijt me u te moeten mededelen dat het nieuws over de prestaties van Willie Mays Visual Look Up nog niet heeft bereikt. De functie van iOS 15 produceerde vergelijkbare webafbeeldingen - een reeks niet-gerelateerde standbeelden - maar niets anders. Naast een Google-zoeklink, bevatten de vergelijkbare afbeeldingen geproduceerd door Google Lens in ieder geval andere honkbalgrootheden... inclusief standbeelden van andere reuzen op dezelfde locatie als het standbeeld van Willie Mays.

iOS 15 Visual Look Up (links) versus Google Lens (rechts)(Afbeelding tegoed: TemplateStudio)

Kunstwerk: Visual Look Up kent misschien geen honkbal, maar het begrijpt zeker kunst. Een foto van Rosseau's Het kind met de pop bracht Siri Knowledge niet alleen naar het kunstwerk, maar ook naar de kunstenaar. Google Lens bood zijn gebruikelijke assortiment van vergelijkbare afbeeldingen en de alomtegenwoordige zoeklink. De resultaten van Apple waren verhelderend.

(Afbeelding tegoed: TemplateStudio)

Plantleven: Ik kreeg gemengde resultaten toen ik Visual Look Up los in mijn tuin zette. De iOS 15-functie identificeerde correct de Mexicaanse salie in mijn achtertuin, maar het lijkt te denken dat de appelboom die ik heb pruimen laat groeien. Google Lens identificeerde beide planten correct en deed zelfs een poging om erachter te komen wat voor soort appels er aan mijn boom groeien.

Visual Look Up identificeerde de Mexicaanse wijze correct (links) maar stuitte op appels (rechts).(Afbeelding tegoed: TemplateStudio)

iOS 15 Live-tekst en visuele look-up versus Google Lens: vroege uitspraak

iOS 15 is misschien in bèta, maar Live Text steekt gunstig af bij Google Lens in zowat alles behalve het transcriberen van handgeschreven tekst. Dat is iets dat Apple waarschijnlijk kan verfijnen tussen nu en wanneer de definitieve versie van iOS 15 wordt uitgebracht, hoewel Google hier een voorsprong heeft gehad en nog steeds niet alles helemaal nauwkeurig krijgt.

beste 55 youre tv 2020

De kloof tussen Visual Look Up en Google Lens is iets groter, omdat de resultaten van Visual Look Up wisselvallig kunnen zijn. Als het echter wel informatie heeft, staat het daar in het resultatenveld in plaats van u naar een zoekmachine te sturen voor aanvullende gegevens.

Met andere woorden, Live Text en Visual Look Up zijn nog steeds erg veel bèta's. Maar je kunt niet anders dan onder de indruk zijn van het eerste werk van Apple.

  • Beste iPhones
De beste Apple iPhone 12 Pro-deals van vandaagPlannen ontgrendeldOntvang een virtuele cadeaubon van $ 100 + GRATIS Beat Studio Buds - zwart wanneer je overschakelt en activeert naar Zichtbaar Geen contract Apple iPhone 12 Pro (Afbetalingen 128GB) Apple iPhone 12 Pro (Afbetalingen 128GB) Vrij vooraf $ 77/mnd Onbeperkt minuten Onbeperkt teksten Onbeperkt gegevens Gegevens:(downloadsnelheden van 5-12 Mbps, uploadsnelheden van 2-5 Mbps) Geen contract Onbeperkt minuten Onbeperkt teksten Onbeperkt gegevens Gegevens:(downloadsnelheden van 5-12 Mbps, uploadsnelheden van 2-5 Mbps) Bekijk Deal Bij Vrij vooraf $ 77/mnd Bekijk Deal Bij Ontvang een virtuele cadeaubon van $ 100 + GRATIS Beat Studio Buds - zwart wanneer je overschakelt en activeert naar Zichtbaar Geen contract Apple iPhone 12 Pro (Afbetalingen 256GB) Apple iPhone 12 Pro (Afbetalingen 256GB) Vrij vooraf $ 81/mnd Onbeperkt minuten Onbeperkt teksten Onbeperkt gegevens Gegevens:(downloadsnelheden van 5-12 Mbps, uploadsnelheden van 2-5 Mbps) Geen contract Onbeperkt minuten Onbeperkt teksten Onbeperkt gegevens Gegevens:(downloadsnelheden van 5-12 Mbps, uploadsnelheden van 2-5 Mbps) Bekijk Deal Bij Vrij vooraf $ 81/mnd Bekijk Deal Bij Ontvang een virtuele cadeaubon van $ 100 + GRATIS Beat Studio Buds - zwart wanneer je overschakelt en activeert naar Zichtbaar Geen contract Apple iPhone 12 Pro (Afbetalingen 512GB) Apple iPhone 12 Pro (Afbetalingen 512GB) Vrij vooraf $ 90/mnd Onbeperkt minuten Onbeperkt teksten Onbeperkt gegevens Gegevens:(downloadsnelheden van 5-12 Mbps, uploadsnelheden van 2-5 Mbps) Geen contract Onbeperkt minuten Onbeperkt teksten Onbeperkt gegevens Gegevens:(downloadsnelheden van 5-12 Mbps, uploadsnelheden van 2-5 Mbps) Bekijk Deal Bij Vrij vooraf $ 90/mnd Bekijk Deal Bij We controleren elke dag meer dan 250 miljoen producten voor de beste prijzen