Apple Live Text vs. Google Lens: Was ist das beste Bilderkennungstool?

Wollten Sie schon immer Text von einem Bild oder Poster kopieren oder seine Bedeutung oder Übersetzung nachschlagen? Nun, Apples neue Bilderkennungsfunktion, Live Text, macht es super einfach. Darüber hinaus kann es auch Objekte, Pflanzen, Tiere und Denkmäler erkennen, um die Welt um Sie herum besser zu verstehen.

Aber wie gut funktioniert es tatsächlich? Ich habe mich entschieden, Apple Live Text mit Google Lens zu vergleichen, das ähnliche Fähigkeiten hat und schon viel länger auf dem Markt ist. Lassen Sie uns mehr über beide erfahren und sehen, wie sich beide schlagen.

Live Text vs. Google Lens: Kompatibilität

Zunächst einmal ist Live Text exklusiv im gesamten Apple-Ökosystem verfügbar und daher kompatibel mit:

  • iPhones mit dem A12 Bionic Chip und höher mit iOS 15
  • iPad mini (5. Generation) und höher, iPad Air (2019, 3. Generation) und höher, iPad (2020, 8. Generation) und höher, iPad Pro (2020) und höher, mit iPadOS 15
  • Macs mit dem M1-Chip unter macOS Monterey

Google Lens hingegen ist sowohl auf iOS- als auch auf Android-Geräten verfügbar. Dieser Artikel vergleicht Live Text von iOS 15 mit Google Lens auf demselben iPhone 11.

Live-Text vs. Google Lens: Funktionen

Live Text ist im Wesentlichen Apples Antwort auf Google Lens. Es bietet also viele ähnliche Funktionen. Lassen Sie uns mehr über beides verstehen.

Was ist iOS 15 Live-Text?

Live Text in iOS 15 fügt Ihrer iPhone-Kamera intelligente Text- und Bilderkennungsfunktionen hinzu. Sie können damit Text von Bildern isolieren, indem Sie einfach Ihre Kamera auf das Zielmaterial richten oder Text in Bildern in Ihrer Fotobibliothek erkennen. Sie können den Text dann online nachschlagen, kopieren, in eine unterstützte Sprache übersetzen oder teilen

Live Text enthält auch Visual Lookup, mit dem Sie Details zu Objekten, Tieren, Pflanzen und Orten finden können, indem Sie Ihre Kamera darauf richten oder Fotos von ihnen analysieren.

Was ist Google-Linse?

Google Lens wurde 2017 mit im Google Pixel 2 vorinstallierten App-Vorschauen eingeführt. Später wurde es als eigenständige App für Android-Telefone eingeführt und ist jetzt in die Kamera-App auf High-End-Android-Geräten integriert.

Unter iOS ist Google Lens in der Google App verfügbar. Es bietet Texterkennung, Übersetzung, Objekt- und Ortserkennung, Barcode- und QR-Code-Scannen und sogar Hilfe bei Hausaufgabenfragen für Schüler.

Da es seit einigen Jahren auf dem Markt ist, ist Google Lens zu diesem Zeitpunkt weiter entwickelt und funktioniert viel besser als Apple Live Text. Ich habe die Hauptfunktionen von beiden getestet und verglichen, und die Ergebnisse werden unten erläutert.

Live Text vs. Google Lens: Texterkennung

Nach mehreren Testrunden mit verschiedenen Textarten kann ich feststellen, dass Live Text derzeit ein Treffer oder ein Fehlschlag ist. Es funktioniert manchmal, und manchmal erkennt es einfach keinen Text.

Dies gilt unabhängig davon, ob Sie versuchen, es auf einem Textbild zu verwenden oder direkt, während Sie die Kamera auf einen Text richten.

Außerdem funktionierte die Handschrifterkennung überhaupt nicht. Dies liegt wahrscheinlich daran, dass sich iOS 15 noch im Betatest befindet, daher freue ich mich darauf, die Texterkennung nach der offiziellen Veröffentlichung erneut zu testen.

Um Live-Text zu verwenden, tippen Sie auf das Live-Text-Symbol unten rechts in einem Bild. Dieses Symbol wird nur angezeigt, wenn das System Text im Bild erkannt hat.

Um Text im Kamerasucher zu erkennen, tippen Sie auf den allgemeinen Textbereich und dann auf das gelbe Symbol unten rechts auf dem Bildschirm.

Wie oben erwähnt, ist iOS 15 derzeit nicht sehr gut darin, das Vorhandensein von Text in Bildern zu erkennen, sodass es zeitweise funktioniert.

Die wenigen Male, in denen die Texterkennung für mich funktionierte, konnte ich den Text auswählen, um kontextbezogene Aktionen anzuzeigen, die ich ausführen konnte. Zum Beispiel könnte ich zwischen Kopieren, Alle auswählen, Nachschlagen, Übersetzen und Freigeben von Text wählen.

Wählen Sie die Texterkennungsoptionen Apple Live Text

Oder wenn Live Text eine Uhrzeit erkannte, bot es die Möglichkeit, meinem Kalender eine Erinnerung hinzuzufügen.

Eine Erinnerung mit Apple Live Text hinzufügen

Trotz mehrerer Versuche erkannte Live Text jedoch keine Telefonnummern oder Adressen.

Im Vergleich dazu leistet Google Lens hervorragende Arbeit bei der Erkennung jeder Art von Text, einschließlich Handschrift. Es bietet auch die entsprechenden kontextbezogenen Aktionen für Telefonnummern, Webadressen, Straßenadressen usw. Im Moment ist es also ein klarer Gewinner und wirklich praktisch.

Google Lens Texterkennung auf dem iPhone

Live-Text vs. Google Lens: Übersetzung

Apple Live Text ist derzeit in nur sieben Sprachen verfügbar, während Google Lens in allen 108 Sprachen verfügbar ist, die Google Translate unterstützt.

Google Lens fügt die Übersetzung direkt auf den Text im Bild ein, während Live Text sie unter dem Bild angibt.

Live-Text vs. Google Lens - Übersetzung

Beides schien ziemlich genau zu sein, aber Google Lens hat den zusätzlichen Vorteil, Handschrift zu übersetzen, was ziemlich cool ist!

Google Lens übersetzt Handschrift auf dem iPhone

Live-Text vs. Google Lens: Visuelle Suche

Visual Lookup ist eine Funktion, mit der Sie Objekte, Denkmäler, Pflanzen und Tiere in Fotos erkennen können, indem Sie auf das kleine „i“-Symbol unter dem Bild tippen.

Identifizieren von Objekten

Leider scheint diese Funktion in der Betaversion von iOS 15 nicht zu funktionieren. Ich habe es mit verschiedenen leicht identifizierbaren Objekten wie iPhones und Büchern versucht, aber es kamen keine Ergebnisse.

Visuelle Suche in Apple Live Text

Google Lens hatte kein Problem damit, Dinge zu identifizieren, wie in den Screenshots unten gezeigt.

Visuelle Suche in Google Lens

Identifizieren von Orientierungspunkten

Apple Live Text hat keine Ergebnisse erhalten, als ich versucht habe, Orte in Fotos nachzuschlagen.

Google Lens war ziemlich versiert darin, Sehenswürdigkeiten zu identifizieren, wie auf diesem Foto von mir aus Danang, Vietnam.

Google Lens Identifizieren von Sehenswürdigkeiten

Pflanzen und Blumen erkennen

Auch dies funktionierte bei Apple Live Text nicht, aber Google Lens konnte Blumen und Pflanzen genau identifizieren.

Google Lens zur Identifizierung von Pflanzen und Blumen

Tiere identifizieren

Wie alle anderen Visual Lookup-Funktionen von Live Text scheint dies in iOS 15 Beta nicht zu funktionieren. Was Google Lens betrifft, konnte es meine Katze identifizieren, war aber nicht so klar über die Rasse.

Google Lens zur Identifizierung von Tieren

Live Text vs. Google Lens: Benutzerfreundlichkeit

Obwohl die meisten Live-Text-Funktionen derzeit nicht so funktionieren, wie sie sollten, ist ein Bereich, in dem sie gewinnt, die Benutzerfreundlichkeit. Seine Integration in die iPhone-Kamera-App macht es unglaublich intuitiv und handlich. Ich bin mir sicher, dass es ein Hit werden wird, sobald die offizielle Version von iOS veröffentlicht und Live-Text-Funktionen voll ausgeschöpft sind.

Im Vergleich dazu ist Google Lens etwas klobig, denn um darauf zuzugreifen, muss man in die Google-App gehen und auf das Google Lens-Symbol tippen. Dann müssen Sie wischen, um die spezifische Funktion auszuwählen, die Sie verwenden möchten.

Google Lens-Symbol in der Google-App auf dem iPhone

Live-Text vs. Google Lens: Genauigkeit

Derzeit ist Google Lens viel genauer als Apple Live Text, egal ob es um die Erkennung von Text, Handschrift, Adressen, Telefonnummern, Objekten, Orten und mehr geht. Dies liegt daran, dass Google viel mehr Daten hat und genug Zeit hatte, um Google Lens unglaublich intelligent zu machen.

Nichtsdestotrotz bin ich mir sicher, dass Live Text im kommenden Jahr nach der offiziellen Veröffentlichung einige signifikante Verbesserungen erfahren wird.

Live-Text vs. Google Lens: Datenschutz

Google ist berüchtigt dafür, Ihre Daten zu verfolgen und zu verwenden, um Ihre Erfahrung zu personalisieren, seine Dienste zu verbessern, die KI-Entwicklung weiterzuentwickeln und mehr. Es versteht sich also von selbst, dass Daten darüber, was Sie mit Google Lens suchen, gespeichert werden.

Obwohl ich nicht viele Informationen zum Datenschutz von Live Text finden konnte, priorisiert Apple den Datenschutz, der wahrscheinlich in Live Text integriert wird. Sie müssen sich keine Sorgen machen, dass Ihre Daten auf einem Server gespeichert oder an Dritte weitergegeben werden. Sehen Sie sich diesen Bereich an, um in Zukunft nach dem offiziellen öffentlichen Start von iOS 15 weitere Updates zu diesem Thema zu erhalten.

Fazit: iOS 15 Live Text vs. Google Lens – was ist besser?

Damit ist mein Vergleich der Bilderkennungstools von Google und Apple abgeschlossen. Google Lens gibt es schon seit einigen Jahren, daher ist es fortgeschrittener und Live Text überlegen, wenn es um das Erkennen und Übersetzen von Text, das Nachschlagen von Dingen und Orten im Internet und mehr geht.

Es kann Apple jedoch nicht schlagen, wenn wir die Benutzerfreundlichkeit, die Integration in das Apple-Ökosystem und natürlich den Datenschutz berücksichtigen. Der Komfort, den Google Lens bietet, geht zu Lasten Ihrer Daten.

Auch wenn Apple bei der Bilderkennungstechnologie noch Nachholbedarf hat, ist Live Text immer noch eine großartige integrierte Funktion für Apple-Benutzer, die die Art und Weise verbessern soll, wie Sie Ihr iPhone und andere Apple-Geräte verwenden. Was denkst du? Lass es mich in den Kommentaren unten wissen.

Weiterlesen:

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *