Google Lens: Nach Zuhören & Verstehen lernt die KI jetzt „sehen“ und „erkennen“!

Google Lens: Gelegentlich macht es Sinn, wenn wir Apple-Fans auch mal schauen, was die Konkurrenz so anbietet.

Google hat im Zuge seiner neuen Pixel 2 Smartphones seinem Google Assistenten eine Google Lens Funktion spendiert. Mit dieser wird es Google zukünftig möglich sein, „zu sehen“!

Bis jetzt ist Google Lens eine verbesserte Bildererkennung – mehr nicht!

Aktuell ist das Feature ausschließlich auf den Pixels verfügbar, wird aber zukünftig im Google Assistenten integriert werden. Ich habe die Funktion in meiner Google Fotos App auf einem Pixel ausprobiert. In dieser steht die Google Lens Funktion eingeschränkt zur Verfügung und kann sich Eure Bilder „anschauen und erkennen was sich darauf befindet“.

Google Lens: Nach Zuhören & Verstehen lernt die KI jetzt „sehen“ und „erkennen“! 1
Google Lens erkennt Red Bull Dose

Die Software ist in der Lage, Text, Formen, Sehenswürdigkeiten und Symbole zu erkennen. Im Praxistest hat das einigermaßen gut geklappt. Drückt man in der App den Button für Google Lens, dann erscheinen auf dem Bild lauter kleine Google-Punkte und vermessen dieses sozusagen (siehe Artikelbild).

Google Lens: Nach Zuhören & Verstehen lernt die KI jetzt „sehen“ und „erkennen“! 2
Dieses unscharfe Red Bull Logo wurde von Google Lens nicht erkannt

Eine Red Bull Dose wurde problemlos erkannt. Das Red Bull Logo oben beim Öffner der Dose hingegen (das extra etwas unscharf aufgenommen wurde, um der Lens die Arbeit zu erschweren) konnte die App nicht erkennen.

Google Lens: Nach Zuhören & Verstehen lernt die KI jetzt „sehen“ und „erkennen“! 3
Google Lens versagt auch hier

Gleiches gilt für Aufnahmen meiner South Park Figuren. Kurz gesagt: Die Funktionen sind zwar vorhanden, arbeiten aber noch sehr eingeschränkt. Denn, dass Google mithilfe seiner Kamera auch Text erkennen kann, wissen wir spätestens seit der Übersetzungsfunktion, mit der Ihr sozusagen einen ausländischen Text vor die Kameralinse haltet und Google Euch dann auf Euren Smartphone den übersetzten Text anzeigt.

Künstliche Intelligenz wird erst dann so richtig überzeugen, wenn diese nicht nur in der Lage ist, uns zuzuhören und uns zu verstehen, sondern am besten auch zu sehen. Mit Google Lens ist damit ein erster Ansatz geschaffen. Ich gehe davon aus, dass Apple eine entsprechende Funktion bei Siri ebenfalls einsetzen werden wollen wird und intern bereits an Entsprechendem arbeitet.

Zurück zur Apple News Übersicht

Leser-Interaktionen

Was Denkst Du?