DHL Express vereinfacht die Zollabwicklung per KI

Eine neue Scam-Masche missbraucht die Marke DHL.

Der Versand ins Ausland ist oft eine nervige Angelegenheit, weil der Zoll bei der Beschreibung des Inhalts ganz genau hinsieht. DHL Express schraubt nun an diesem Prozess und integriert eine Bilderkennung direkt in die Buchung. Wer ein Paket international verschicken will, kann den Artikel einfach mit dem Smartphone fotografieren.

Eine Computer-Vision-Technologie analysiert das Bild auf den Servern und spuckt innerhalb von Sekunden eine passende Beschreibung aus, die den internationalen Zollvorgaben entspricht. Dieser Vorschlag lässt sich vor dem Abschluss der Sendung noch bearbeiten oder komplett überschreiben. Das Ganze funktioniert ohne Registrierung und soll vor allem die Datenqualität verbessern, damit Pakete seltener beim Zoll hängen bleiben.

Bisher war für die korrekte Deklaration oft ein bisschen Wissen nötig, das die KI nun ersetzt. Für den Kunden bedeutet das weniger Papierkram und eine schnellere Abwicklung, da die manuelle Eingabe komplizierter Begriffe entfällt.

Die Funktion ist derzeit in acht Märkten verfügbar: Kanada (CA), Deutschland (DE), Hongkong (HK), Niederlande (NL), Singapur (SG), Südafrika (ZA), Spanien (ES), Vereinigte Arabische Emirate (UAE). Eine schrittweise weltweite Einführung ist im Laufe des Jahres 2026 geplant.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Claude Code: Höhere Limits dank Deal mit SpaceX und xAI

Avatar-Fotovon | Ein Kommentar

Anthropic nutzt für Claude künftig Rechenpower von SpaceX und mietet sich im „Colossus 1“-Rechenzentrum von xAI ein. Dieser Deal bringt innerhalb eines Monats zusätzliche Kapazitäten von über 300 Megawatt. Langfristig liebäugeln die Partner sogar mit orbitaler KI-Rechenleistung im Gigawatt-Bereich über Satelliten im All. Für zahlende Nutzer von Claude Code auf den Pro, Max, Team und Enterprise-Plänen hat das Ganze handfeste Vorteile. Die Rate-Limits für einen Zeitraum von fünf Stunden verdoppeln sich sofort. Zudem fallen die Einschränkungen während der Stoßzeiten für Pro und Max Abonnenten weg und die API-Limits für das Opus-Modell steigen deutlich an.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

Googles NotebookLM bekommt frische Mindmap-Funktionen

Google rollt ein neues Update für NotebookLM aus, das sich vor allem an jene richtet, die das KI-Tool zur visuellen Strukturierung von Dokumenten nutzen. Im Mittelpunkt stehen dabei die Mindmaps, die bislang zwar praktisch waren, aber in puncto Anpassung noch etwas eingeschränkt wirkten.

Neu dabei ist die Möglichkeit, die Mindmap-Generierung per Text-Prompt gezielt zu steuern. Bisher hat NotebookLM die Struktur weitgehend selbst aus den hochgeladenen Quellen abgeleitet. Mit dem Update lässt sich der Fokus der generierten Maps jetzt präziser setzen.

Dazu kommt, dass sich Mindmaps ab sofort umbenennen lassen. Wer regelmäßig mit mehreren Projekten arbeitet, weiß, wie schnell das unübersichtlich wird, wenn alles gleich heißt. Außerdem wurde eine direkte Teilen-Funktion integriert, mit der sich Ergebnisse ohne Umwege weitergeben lassen. Technisch überarbeitet wurde auch die Navigation innerhalb der Diagramme. Das Bewegen durch komplexere Knoten und Verzweigungen soll jetzt flüssiger wirken, mit weicheren Übergängen zwischen den einzelnen Elementen.

Das Update wird ab sofort verteilt und sollte in Kürze in der Plattform sichtbar sein.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Threads bekommt Desktop-DMs und Live-Chats

Meta stellt Boni für erfolgreiche Posts bei Threads in Aussicht.

Wer Threads bislang am Rechner genutzt hat, musste für seine Direktnachrichten zwingend zum Smartphone greifen. Das ändert sich jetzt: Meta hat die Browser-Version seines Kurznachrichtendienstes um einen vollwertigen Nachrichten-Bereich erweitert. Einzelchats, Gruppengespräche, eine Suchfunktion und die Möglichkeit, neue Chats direkt aus dem Browser heraus zu starten – alles ab sofort auch am Desktop verfügbar. Ein eigener Reiter in der Web-Oberfläche trennt dabei den üblichen Posteingang von den gefilterten Nachrichtenanfragen.

Gleichzeitig rollt Threads eine Funktion aus, die so weder X noch Bluesky bisher anbieten: Live-Chats. Das Prinzip ist auf Echtzeit ausgelegt und richtet sich eher an Gruppen. Den Anfang macht hier die NBA-Community, die die laufenden Playoffs damit begleiten kann. Technisch sind aktuell bis zu 150 aktive Teilnehmer möglich, die Textnachrichten, Bilder, Videos, Links und Emoji-Reaktionen teilen können. Wer nach Erreichen dieses Limits dazukommt, landet automatisch im Zuschauer-Modus – Mitlesen, Reagieren und Abstimmen bei Umfragen bleiben möglich, aktiv schreiben kann man dann aber nicht mehr.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Google beschleunigt Gemma 4: Dreifache KI-Performance dank spekulativer Dekodierung

Google hat für seine Gemma 4 Modellfamilie neue Multi-Token-Vorhersage-Drafter (MTP-Drafter) veröffentlicht, um die Verarbeitungsgeschwindigkeit deutlich zu erhöhen. Diese Technologie nutzt sogenannte spekulative Dekodierung, bei der ein kleineres Hilfsmodell potenzielle Textsequenzen voraussagt, während das Hauptmodell diese lediglich parallel verifiziert.

Dadurch soll der herkömmliche Engpass bei der Speicherbandbreite überwunden werden, was die Geschwindigkeit ohne Einbußen bei der Antwortqualität verdreifachen können soll. Entwickler profitieren von einer verbesserten Reaktionsfähigkeit bei Anwendungen wie Coding-Assistenten oder KI-Agenten auf Workstations und Mobilgeräten.

Die MTP-Drafter für die gesamte Gemma-4-Familie stehen unter der Apache-2.0-Lizenz zur freien Nutzung bereit. Die Modellgewichte sind über Hugging Face und Kaggle verfügbar. Wer das Ganze in eigenen Projekten ausprobieren möchte, kann auf gängige Frameworks zurückgreifen – darunter MLX, vLLM, SGLang, Ollama und Hugging Face Transformers. Für mobile Entwicklung unter iOS und Android finden sich die Modelle in der Google AI Edge Gallery.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies