Google Multitasking: Suche nach Fotos und Videos

An alle, die sich fragen, wofür künstliche Intelligenz (KI) im Alltag gut ist (wenn Chat GPT oder das neue Google Bard nicht genug wären): Das Unternehmen Mountain View hat heute mit der Ankündigung einiger wichtiger Verbesserungen unserer Arbeitsweise reagiert Jeden Tag forschen und dabei – dank KI – alle sprachlichen und logistischen Barrieren überwinden.

Nach dem Ruf „Ihre Kamera ist die nächste Tastatur“ oder „Wenn Sie sie sehen können, können Sie danach suchen“ werden Android-Handykameras dank Google Lens jetzt zu echten Suchwerkzeugen (iPhone-Benutzer haben dies getan). um die Google-App zu öffnen und auf die Kamera in der Suchleiste zu klicken).Grundsätzlich kann alles, was wir mit dem Handy einrahmen, gesucht und gefunden werden. Zusätzlich zur Übersetzung von Texten in 133 Sprachen.

Wenn ich zum Beispiel eine Brille sehe, die mir gefällt, rahmen ich sie ein und klicke auf das Foto, um auf die Google-Suche zuzugreifen, die Informationen und Kaufoptionen anzeigt. Oder ich sehe eine Pflanze, deren Namen ich nicht kenne, ich rahme sie ein und habe sofort Zugang zu speziellen Websites, die mir erklären, um welche Pflanze es sich handelt.

Diese Forschung eröffnet eindeutig eine Vielzahl von Möglichkeiten, vom Einkaufen über das Verstehen von etwas Unbekanntem, zum Beispiel wenn wir im Ausland sind, bis hin zum Wissen, ohne überhaupt fragen zu müssen, wie das köstliche Dessert heißt, das wir aus dem Fenster betrachten eine Konditorei zum Beispiel.

In den kommenden Monaten wird es auch möglich sein, Lens für die Dinge zu verwenden, die wir auf dem mobilen Bildschirm sehen. Dank der Funktion „Ihren Bildschirm durchsuchen“ auf Android-Geräten auf der ganzen Welt wird es möglich sein, eine Suche ausgehend von dem zu starten, was wir in einem Foto oder Video im Internet und in unseren Lieblings-Apps wie Messaging- und Video-Apps sehen, ohne dass dies erforderlich ist die bestimmte App oder Erfahrung beenden zu müssen.

Stellen Sie sich vor, jemand hat Ihnen ein WhatsApp-Video von seinem Urlaub in London geschickt. Vielleicht haben Sie im Hintergrund ein Denkmal gesehen, das Sie fasziniert hat. Um mehr zu erfahren, tippen und h alten Sie einfach die Ein-/Aus-Taste oder die Home-Taste Ihres Android-Telefons, um den Google Assistant aufzurufen, und tippen Sie dann auf „Suchbildschirm“. Lens identifiziert das Gebäude und gibt alle Informationen über diesen Ort zurück.

Nicht nur online, finden Sie in meiner Nähe

Wenn wir uns bei Ihnen umsehen möchten, was wir gesehen haben, können Sie mit der Multitasking-Suche auch ein Foto mit der Option „in meiner Nähe“ machen, um beispielsweise ein Geschäft in der Nachbarschaft zu identifizieren, bei dem Sie was kaufen können wir suchen. Diese Option ist derzeit in den USA auf Englisch verfügbar, wird aber in den kommenden Monaten weltweit eingeführt.

Endlich wird es bald möglich sein, Variablen in die Multitasking-Suche einzuführen.Ich sehe zum Beispiel einen quadratischen Tisch, der mir gefällt, aber ich möchte, dass er rund ist. Ich mache das Foto, starte die Suche und füge eine weitere Option hinzu (andere Form, Farbe, Größe usw.). Der Zweck all dieser Innovationen besteht, wie Prabhakar Raghavan, Senior Vice President von Google, erklärt, darin, das Sucherlebnis so einfach und vollständig wie möglich zu gest alten, ganz im Einklang mit dem Motto des Technologieriesen: „Das Leben möglichst vieler Menschen verbessern.“ ".

Und Google Maps wird immersiv

Vergessen wir die traditionellen Karten – für die wir bis heute unendlich dankbar sind, dass sie uns geführt haben – denn heute hat Chris Phillips, VP & General Manager von Geo (Googles Maps-Abteilung), eine Innovation angekündigt, die alles verändern wird. Immersive Karten (Live View).

Wie oft sind wir, selbst wenn wir den Anweisungen genau gefolgt sind, auf die falsche Seite oder den falschen Ausgang gegangen? Es ist normal und passiert jedem, aber es würde nicht passieren, wenn es eine Übereinstimmung zwischen der auf der Karte markierten Straße und dem, was unsere Augen sehen, gäbe.So werden wir nicht nur in Kürze Augmented Reality für die Karten von Florenz und Venedig einführen, sondern auch bald in der Lage sein, unsere Bewegungen millimetergenau zu planen und dabei genau zu wissen, wie die Straße aussieht, welchen Ort wir erreichen möchten und welche Orte, auch drinnen , dass unser Weg beinh altet.

Grundsätzlich wird Google Maps durch die Kombination aller vorhandenen Bilder der verschiedenen Orte auf der Erde in der Lage sein, uns eine 3D-Ansicht von Städten zu liefern, einschließlich der Rekonstruktion von Innenräumen (z. B. Museen, Restaurants, Einkaufszentren, Flughäfen und Bahnhöfe).

Die Reise vor der Reise

Die immersive Visualisierung nutzt Fortschritte in der künstlichen Intelligenz und im Computer Vision und vereint Milliarden von Street View-Bildern und Luftbildern, um ein unglaublich reichh altiges digitales Modell der Welt zu erstellen. Aber das ist noch nicht alles. Maps ist noch ein Kind von Google, daher wird die 3D-Visualisierungauch nützliche Informationen wie Wetter, Verkehr und die Bevölkerung eines Ortes liefern können.

Wenn wir beispielsweise einen Besuch im Rijksmuseum in Amsterdam planen, können wir virtuell über das Gebäude fliegen und sehen, wo sich beispielsweise die Museumseingänge befinden. Mit dem Zeitschieberegler können wir sehen, wie die Gegend zu verschiedenen Tageszeiten aussieht und nachfragen, wie das Wetter wird. Wir können auch die am stärksten frequentierten Orte identifizieren, sodass Sie über alle Informationen verfügen, die Sie benötigen, um zu entscheiden, wohin und wann Sie gehen möchten. Und wenn wir wissen, dass wir gegen Mittag dort sind, können wir nahe gelegene Restaurants erkunden und sogar einen Blick hineinwerfen, um vor der Buchung schnell ein Gefühl für einen Ort zu bekommen.

Die Welt in 3D

Es sieht aus wie Science-Fiction, ist aber nur Wissenschaft. Google erklärt: „Um diese naturgetreuen Szenen zu erstellen, verwenden wir Neural Radiance Fields (NeRF), eine fortschrittliche KI-Technik, die gewöhnliche Bilder in 3D-Darstellungen umwandelt.Mit NeRF können wir den gesamten Kontext eines Ortes, einschließlich Beleuchtung, Materi altextur und Hintergrund, präzise nachbilden. All dies lässt uns verstehen, ob die stimmungsvolle Beleuchtung einer Bar die richtige Atmosphäre für einen galanten Abend ist oder ob die Aussicht eines Cafés es zum idealen Ort für ein Mittagessen mit Freunden macht.“

Verabschieden Sie sich von bösen Überraschungen am falschen Ort.

Dieser Suchtyp ist derzeit in London, Los Angeles, New York, San Francisco, Paris und Tokio verfügbar (für Android und iPhone). Die nächsten Städte werden Barcelona, Dublin und Madrid sein. Und dann wird Live View auf 1.000 neue Flughäfen, Bahnhöfe und Einkaufszentren (die Orte, an denen man sich leichter verlaufen oder nach Toiletten suchen kann) in Barcelona, Berlin, Frankfurt, London, Madrid, Melbourne, Paris, Prag, ausgeweitet. Sao Paulo, Singapur, Sydney, Taipeh und Tokio. Derzeit werden bereits Flughäfen in den USA, Zürich und Tokio abgedeckt.

Weitere Maps-Neuigkeiten

Wie bereits erwähnt, wird die Möglichkeit, Städte und Straßen in Echtzeit zu erkunden und Orte und Unternehmen mit Augmented Reality zu identifizieren, zunächst die Städte Venedig und Florenz in Italien betreffen. Dadurch können Besucher sofort auf viele nützliche Informationen zugreifen, z. B. wo sich eine Apotheke befindet, ob ein Restaurant in der Nähe ist, wie beliebt sie ist, welche Bewertung sie hat usw. – und das alles einfach durch Einrahmen einer Straße.

Aber bei den neuen Entwicklungen liegt ein wichtiger Schwerpunkt auf der Nachh altigkeit des Reisens. Wenn Google Maps bereits in der Lage ist, die ökologisch nachh altigste Route zu empfehlen, wird es bald sein Angebot speziell für Elektroautos erweitern – mit Ad-hoc-Routen und Ladestationen, bis hin zu Fahrrädern – mit Anti-Smog-Routen, für Fußgänger und solche, die es wollen öffentliche Verkehrsmittel nutzen. Außerdem wird die Anzeige der Route in Echtzeit auf der Karte verbessert und nützliche Fotos hinzugefügt, wenn Sie abbiegen oder ein Gebäude finden müssen.

Anfahrt auf einen Blick

Mit der Wegbeschreibung auf einen Blick können Sie Ihre Reise dann direkt aus der Routenübersicht oder vom Sperrbildschirm aus verfolgen. Sie können die voraussichtliche Ankunftszeit und die nächste Abzweigung sehen, Informationen, die bisher nur sichtbar waren, wenn Sie das Telefon entsperren, die App öffnen und den vollständigen Navigationsmodus verwenden. Und wenn wir uns für eine andere Route entscheiden, wird unsere Reise automatisch aktualisiert. Wegbeschreibungen auf einen Blick werden in den kommenden Monaten weltweit auf Android und iOS verfügbar sein und auch mit Live-Aktivitäten auf iOS 16.1 kompatibel sein.

Wer es liebt, sich in aller Ruhe zu verlieren oder den Sternen zu folgen, kann dies weiterhin problemlos tun.

Interessante Beiträge...