Google kündigt neue Android-Funktionen an

Google hat nicht nur neue Funktionen für die Pixel-Smartphones und die Pixel Watch vorgestellt, generell hat man Neues für Android parat. Google erweitert die Funktionalität von Android mit einer Reihe neuer KI-gestützter Features. Die Neuerungen zielen darauf ab, die Interaktion mit dem Smartphone natürlicher und effizienter zu gestalten.

Eine Verbesserung betrifft die Lookout-App, die Menschen mit Sehbehinderung unterstützt. Das Gemini-1.5-Pro-Modell erstellt nun präzisere Bildbeschreibungen, die von einer natürlichen Stimme vorgelesen werden. Nutzer können zusätzliche Fragen zum Bildinhalt stellen, was das Verständnis vertieft. Diese Funktion steht zunächst auf Englisch zur Verfügung.

Die beliebte Emoji Kitchen in Gboard erhält neue Kombinationsmöglichkeiten. Die Integration der Clearflow-Tastatur mit Glide-Typing verspricht eine schnellere und genauere Texteingabe. Diese Verbesserung macht die tägliche Kommunikation flüssiger.

Der Datenaustausch wird durch Quick Share vereinfacht. Die neue QR-Code-Funktion ermöglicht das direkte Teilen von Medien und Dokumenten, ohne dass zusätzliche Einstellungen oder Kontaktverknüpfungen erforderlich sind.

Google Drive wurde um eine automatische Scan-Optimierung erweitert. Das System verbessert selbstständig Kontrast und Weißabgleich, während es Schatten und Unschärfen minimiert. Diese Funktion ist für alle Arten von Dokumenten und Belegen nutzbar, so Google.

Die Integration von Gemini in Android wird ausgebaut. Eine neue Spotify-Erweiterung ermöglicht die Steuerung von Musik und Podcasts. Die KI kann auch Anrufe tätigen, Nachrichten senden und Geräteeinstellungen anpassen. In Zukunft wird Gemini auch Smart-Home-Geräte steuern und erweiterte Kartenfunktionen in Google Maps bereitstellen können.

Die Entwicklung zeigt, dass Google die KI-Integration in Android systematisch ausbaut. Die neuen Funktionen sind teils durchaus sehr brauchbar.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Pixel Watch 3 erkennt Pulsverlust und alarmiert Rettungskräfte

Die Pixel Watch 3 erhält nun auch in Deutschland eine Funktion, die Leben retten kann: die automatische Pulsverlust-Erkennung. Diese neue Technologie zielt darauf ab, Menschen in kritischen Situationen zu helfen, besonders wenn sie alleine sind und selbst keinen Notruf mehr absetzen können.

Ein Pulsverlust ist ein akuter medizinischer Notfall. Die Ursachen sind vielfältig und reichen von Herzstillstand über Kreislaufversagen bis hin zu Vergiftungen. In solchen Situationen ist schnelles Handeln entscheidend. Die neue Funktion der Pixel Watch 3 setzt genau hier an.

Die technische Umsetzung basiert auf einer Kombination verschiedener Sensoren und künstlicher Intelligenz. Der Herzfrequenzsensor der Smartwatch nutzt grünes Licht zur Pulsüberwachung. Bei Verdacht auf einen Pulsverlust schaltet das System zusätzlich Infrarot- und Rotlicht ein. Ein Bewegungssensor erfasst parallel dazu die Aktivität des Nutzers. Die gesammelten Daten werden von einem KI-Algorithmus ausgewertet.

Erkennt das System einen möglichen Pulsverlust, startet es einen mehrstufigen Prozess: Zunächst erfolgt eine Überprüfung, ob der Nutzer noch reagiert. Bleibt eine Reaktion aus und werden keine Bewegungen registriert, ertönt ein akustischer Alarm mit Countdown. Erfolgt auch darauf keine Reaktion, setzt die Uhr über LTE oder das verbundene Smartphone automatisch einen Notruf ab. Dabei übermittelt sie den Standort und die Information über den fehlenden Puls.

Die Entwicklung dieser Funktion erfolgte in enger Zusammenarbeit mit medizinischen Experten. Für realistische Tests arbeitete Google mit Stuntleuten zusammen, die mittels Aderpressen einen Pulsverlust simulierten. Die Technologie wurde zudem mit anonymisierten Nutzerdaten aus hunderttausenden Stunden getestet.

Die Pulsverlust-Erkennung ist ab sofort in Deutschland und Portugal verfügbar. Sie ergänzt bestehende Sicherheitsfunktionen der Pixel Watch wie die Erkennung von unregelmäßigem Herzrhythmus, Sicherheitsüberprüfungen sowie die Sturz- und Autounfallerkennung.

Die Funktion ist optional und kann von Nutzern aktiviert werden. Google betont, dass die Technologie zwar nicht jeden Pulsverlust erkennen kann, aber einen wichtigen Beitrag zur Sicherheit der Nutzer leistet.

Übrigens: Die Sturz- und Autounfallerkennung sind nun auch in Deutschland verfügbar. Da wird die Pixel Watch 2 oder höher vorausgesetzt.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Google Pixel: Das steckt im großen Dezember Pixel Drop

Besitzer eines Google Pixel bekommen ab sofort eine Aktualisierung, denn der Dezember Pixel Drop wird verteilt – und der bringt einiges mit. Die neueste Aktualisierung der Google Pixel-Geräte bringt zahlreiche Verbesserungen für Fotografie, Sicherheit und Alltagsnutzung.

Ein besonderer Fokus liegt auf der Fotoqualität: Die Smartphones ermöglichen nun Ultra HDR-Aufnahmen mit intensiveren Farben und besserer Detaildarstellung, die sich direkt auf Instagram teilen lassen. Für alle? Nö. Erfordert das Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL oder Pixel 9 Pro Fold.

Für Besitzer des Pixel Fold wurde die Fotografie durch den Dual Screen vereinfacht. Der externe Bildschirm zeigt eine Vorschau, sodass sowohl Fotograf als auch Model das Bild vor der Aufnahme sehen können. Die „Blickfang“-Funktion hilft bei Porträtaufnahmen von Kindern oder Haustieren durch animierte Bildschirmelemente.

Die Audioqualität wurde ebenfalls optimiert. Die Rekorder-App verfügt jetzt über eine „Glasklare Stimme“-Funktion, die störende Hintergrundgeräusche bei Aufnahmen automatisch reduziert. Dies ist besonders nützlich bei Vorlesungen oder Interviews.

Für mehr Bedienkomfort sorgt die neue „Einfache Ansicht“. Sie ermöglicht größere Schrift und angepasste Touchscreen-Empfindlichkeit. Die Musikerkennung „Now Playing“ zeigt nun Albumcover im Verlauf an. Beim Pixel Tablet wurden die Schnellzugriffe verbessert – wichtige Steuerelemente für Smart Home, Timer und Musik sind direkt vom Sperrbildschirm aus erreichbar:

Die Sicherheitsfunktionen wurden deutlich erweitert. Eine neue Identitätsüberprüfung per Gesicht oder Fingerabdruck schützt sensitive Einstellungen, wenn ihr euch an einem neuen Ort befindet.

Das Pixel Tablet erhält kostenlosen VPN-Schutz für sicheres Surfen in öffentlichen Netzwerken:

Ihr könnt jetzt direkt auf die wichtigsten Steuerelemente auf eurem Pixel Tablet zugreifen. Wischt auf dem Sperrbildschirm eures Tablets nach rechts, um auf Widgets zur schnellen Steuerung eurer Smart Home-Geräte, Timer, Musik und mehr zuzugreifen:

Die Pixel Watch 2 ermöglicht nun die Kontrolle von Nest-Kameras und Türklingeln direkt am Handgelenk. Neue Gesundheitsfunktionen wie Pulsverlust-Erkennung, Sturzerkennung und Autounfallerkennung sind in Deutschland nun verfügbar.

Der verbesserte Tagesform-Index mit Cardio-Belastungsmessung hilft bei der optimalen Trainingssteuerung. Die neuen Funktionen werden ab sofort ausgerollt und erreichen in den nächsten Wochen alle kompatiblen Geräte. In diesem Sinne, fröhliches Aktualisieren!

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

GenCast: Googles neues KI-Modell für präzisere Wettervorhersagen

Google DeepMind hat neben Genie 2 ein neues KI-Modell namens GenCast vorgestellt, das Wettervorhersagen mit hoher Genauigkeit erstellen können soll. GenCast liefert demnach Prognosen für bis zu 15 Tage im Voraus und übertrifft dabei laut Google die Genauigkeit bisheriger Modelle. Das Ganze basiert auf einem sogenannten „Ensemble-Ansatz“. Anstatt eine einzige Vorhersage zu treffen, berechnet das Modell eine Vielzahl möglicher Wetterszenarien. Diese werden als Ensemble zusammengefasst und geben so ein umfassenderes Bild der möglichen Wetterentwicklung.

Im Gegensatz zu bisherigen Wettermodellen, die auf physikalischen Gleichungen basieren, nutzt GenCast „Deep Learning“. Das Modell wurde entsprechend mit großen Datenmengen aus Wetteraufzeichnungen der letzten 40 Jahre trainiert und hat dadurch gelernt, globale Wettermuster zu erkennen.

In Tests konnte GenCast die Genauigkeit des Europäischen Zentrums für mittelfristige Wettervorhersagen (EZMW), übertreffen. Das neue Modell lieferte wohl in 97,2 % der Fälle genauere Ergebnisse, insbesondere bei Prognosen mit einem Vorlauf von mehr als 36 Stunden. Zudem gewinne GenCast auch in Sachen Geschwindigkeit. Während herkömmliche Modelle Stunden auf Supercomputern benötigen, könne GenCast eine 15-Tage-Vorhersage in nur 8 Minuten auf einer Google Cloud TPU v5-Einheit erstellen.

Genauere Prognosen von Stürmen, Hitzewellen oder Starkregen können Behörden und Einsatzkräften helfen, sich besser auf solche Ereignisse vorzubereiten und Schäden zu minimieren. Google DeepMind stellt den Code und die Gewichte des Modells der Öffentlichkeit zur Verfügung, um die Forschung und Entwicklung im Bereich der Wettervorhersage zu fördern.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Google Fotos vs. Ente: Datenschutz im Fokus bei der Bildspeicherung

„Ente, Ente, Ente. Sag endlich Gans!“ Immer mehr Menschen nutzen Google Fotos, um ihre Bilder zu speichern und zu teilen. Doch der Komfort hat seinen Preis: Google analysiert die hochgeladenen Fotos mithilfe von KI-Modellen, um beispielsweise Alter, Ort und sogar Emotionen der abgebildeten Personen zu erkennen. Vishnu Mohandas, ein ehemaliger Google-Mitarbeiter, hat Bedenken hinsichtlich des Datenschutzes und der möglichen Verwendung dieser Informationen. Deshalb entwickelte er „Ente„, einen Open-Source- und Ende-zu-Ende-verschlüsselten Dienst zum Speichern und Teilen von Fotos.

Um die Öffentlichkeit für die Problematik zu sensibilisieren, bastelte man zudem die Website Theyseeyourphotos.com. Dort können Nutzer ein beliebiges Foto hochladen und von Googles KI analysieren lassen. Die Ergebnisse sind oft sehr detailliert und zeigen, wie viele Informationen Google aus einem einzigen Bild extrahieren kann. So erkennt die KI beispielsweise die Marke und das Modell einer Uhr, die auf einem Foto getragen wird, und kann sogar Rückschlüsse auf die ethnische Zugehörigkeit und den sozialen Status der abgebildeten Personen ziehen.

Google selbst betont, dass die Daten aus Google Fotos nur zur Verbesserung der eigenen Dienste verwendet werden und nicht an Dritte verkauft oder für Werbezwecke genutzt werden. Dennoch lässt sich die Analyse der Bilder nicht vollständig deaktivieren. Ente bietet Nutzern eine Alternative, die mehr Kontrolle über ihre Daten verspricht. Allerdings ist der Dienst noch nicht so ausgereift wie Google Fotos und bietet beispielsweise weniger Funktionen zur Dateifreigabe und -suche.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies