Archivsoftware Vanderplanki in Version 1.2 veröffentlicht

Ende Oktober haben wir euch Vanderplanki vorgestellt. Vanderplanki ist eine Software, die auf dem lokalen Computer installiert wird und dazu dient, ein autarkes System für Speicherarchivierung zu schaffen. Die Software ermöglicht es Benutzern, Kontrolle über ihre Datenarchive zu behalten, indem diese lokal und unabhängig verwaltet werden. Zu haben ist sie für Linux, Windows und macOS – kostenlos. Nun steht die Version 1.2 zur Verfügung.

Ein zentrales Problem wurde bei der Nutzung des Cloud-Anbieters pCloud identifiziert, dessen WebDAV-Schnittstelle sich als problematisch für die Archivierung erwies. Diese Schwierigkeiten wurden sowohl durch Nutzerberichte als auch durch eigene Tests der Entwickler bestätigt. Der Cloud-Anbieter pCloud selbst hat gegenüber den Entwicklern angedeutet, dass sie von der Nutzung ihrer WebDAV-Schnittstelle generell abraten.

Als Reaktion auf diese Erkenntnisse haben die Entwickler von Vanderplanki eine grundlegende Änderung in ihrer Software vorgenommen. Mit der neuen Version 1.2 wird nun jede in einen Cloud-Speicher hochgeladene Blob-Datei unmittelbar nach dem Speichervorgang wieder heruntergeladen und auf ihre Integrität überprüft. Diese zusätzliche Sicherheitsmaßnahme führt zwar zu einer längeren Verarbeitungszeit, garantiert aber die Bit-genaue Übereinstimmung der Archivkopie in der Cloud mit dem Original.

Diese neue Funktionalität ermöglicht es, potenzielle Fehler bereits während des Archivierungsprozesses zu erkennen, anstatt sie erst bei einer späteren manuellen Überprüfung des Archivspeichers zu entdecken. Die vollständigen Änderungen und Neuerungen der Version 1.2 sind in den Release Notes auf der offiziellen Webseite von Vanderplanki dokumentiert.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

O2s KI-Oma Daisy soll die Zeit von Scammern verschwenden

Es ist wohl ein Katz-und-Maus-Spiel. Inzwischen setzen Cyber-Kriminelle oftmals für ihre Maschen künstliche Intelligenz ein. So könnte ein Bot mit KI-generierter Stimme bei euch anrufen – im schlimmsten Fall gar mit einem Stimmimitat eines Angehörigen oder Kollegen. Parallel will der Mobilfunkanbieter O2 Scammer nun mit ihren eigenen Waffen schlagen. Dafür hat man sich in Großbritannien die KI-Oma Daisy ausgedacht. Diese soll ans Telefon gehen und Scammer möglichst lange in ein Gespräch verwickeln, um ihre Zeit zu verschwenden.

Der Gedanke: Solange die Scammer mit Daisy quatschen, können sie keine echten Menschen übers Ohr hauen. An der Erstellung hat unter anderem auch der Scambaiter und YouTuber Jim Browning mitgearbeitet. So kombiniert die KI-Oma Daisy mehrere KI-Modelle, um möglichst lebensecht Scam-Anrufe anzunehmen und Gespräche zu führen. Sie soll auf diese Weise einige Betrüger bereits über 40 Minuten im Gespräch gehalten haben.

Daisy erweist sich dabei als Plaudertasche und streut in Gesprächen mit Betrügern irrelevante persönliche Geschichten ein, übermittelt Fake-Bankdaten, stellt sich dusselig in Bezug auf Technik an und verschwendet so möglichst viel Zeit der Betrüger. Gleichzeitig ist auch diese KI natürlich für euch ein Warnhinweis: Man kann oftmals nicht wissen, wer wirklich am anderen Ende der Leitung sitzt. Kennen sicherlich ja viele von euch: Anrufe, angeblich von eurer Hausbank, der Polizei oder sogar vermeintlichen Angehörigen gehen ein. Am Ende geht es bei allen Maschen immer um dasselbe: Eure Daten und euer Geld zu erbeuten.

Wann genau bzw. bei welchen Nummern und unter welchen Bedingungen O2 seine KI Daisy zum virtuellen Hörer greifen lässt, schlüsselt der Anbieter übrigens leider nicht auf. Klar, ist das Ganze auch ein netter Werbekniff, denn über Daisy kann man jetzt natürlich schön auf sich aufmerksam machen, des Weiteren gibt es auch andere valide Kritikpunkte. Dennoch eine witzige Sache und durchaus auch im obigen Video recht unterhaltsam inszeniert. Man gönnt den Kriminellen natürlich richtig den Ärger.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

OpenWebUI und Ollama – Lokale LLMs ausführen

Large Language Models (LLMs) sind derzeit überall zu finden. Mit riesigen Datenmengen trainiert, können sie menschliche Sprache verstehen und generieren. Dabei gibt es immer mehr LLMs die größer und besser werden. Die bekanntesten sind derzeit GPT-4o, Claude 3.5 Sonnet und Gemini 1.5.

Die Stärke der LLMs liegt in ihrer Fähigkeit, Zusammenhänge zu erkennen und kontextbezogen zu antworten. Dazu nutzen sie komplexe neuronale Netzwerke und Aufmerksamkeitsmechanismen, um Intentionen zu erfassen und Antworten mit ihrem erlernten Wissen zu verarbeiten. Die großen LLMs haben aber auch Nachteile: Datenschutzbedenken, mögliche Verzerrungen in den Trainingsdaten und die Tendenz, gelegentlich falsche Informationen zu produzieren. Eine mögliche Lösung für diese Probleme sind lokale LLMs wie LLama 3.1 (Meta), Gemma2 (Google).

Bei lokalen LLMs ist meist auch eine spezielle Metrik bekannt: die Anzahl der Parameter. In einem LLM bestimmen Gewichte, wie stark Eingaben (z. B. Wörter) bestimmte Muster aktivieren. Sie regeln, wie stark ein Neuron (hier ein mathematischer Knotenpunkt) ein anderes beeinflusst. Biases verschieben die Aktivierungsschwelle eines Neurons, sodass das Modell auch ohne spezifische Eingaben aktiviert werden kann. Zusammen formen Gewichte und Biases die „Entscheidungen“ des Modells. Je mehr Parameter (Gewichte und Biases) vorhanden sind, desto feiner kann das Modell Details erkennen und komplexe Zusammenhänge verarbeiten, was seine Genauigkeit und Sprachfähigkeiten verbessert. Aber es braucht auch dementsprechend mehr Speicher. Llama 3.1 8B braucht ungefähr 16 GB VRAM. 405B braucht dabei bereits 860 GB VRAM.

Der einfachste Weg ist Ollama mit OpenWebUI. Es gibt auch andere Möglichkeiten, wie LM Studio und Jan.ai. Dennoch liefert OpenWebUI zusammen mit Ollama die besten Ergebnisse, besonders für Benutzer einer Nvidia GPU. Hier kommen wir zum größten Problem für lokale LLMs: Sie benötigen viel RAM oder VRAM. 16GB für die GPU-Version und 32 GB für die CPU-Version. Das hängt aber auch sehr von der Parametergröße des Modells ab. Meine Empfehlung: Derzeit ist es am sinnvollsten, LLMs auf der GPU auszuführen, sie laufen dort in der Regel deutlich schneller, da GPUs mehr parallele Operationen ausführen können. Apple M1-M3 können auch verwendet werden, die untenstehende Anleitung funktioniert größtenteils auch damit (Ollama muss selbst installiert werden). Wenn man hier viel RAM hat (64 GB ), läuft Llama 3.1 70B sogar schneller als auf einer RTX 4090.

Wie installiere ich jetzt OpenWebUI und Ollama (GPU-Support) unter Windows?

  • Zuerst installiert ihr das WSL (Windows Subsystem für Linux) mit dem Befehl „wsl -update“ im Terminal.
  • Danach installiert ihr die für euer System passende Version von Docker Desktop von https://docker.com und öffnet sie nach der Installation (ihr müsst euer System mindestens einmal neustarten).
  • Im Terminal könnt ihr nun folgenden Befehl eingeben: „docker run -d -p 3000:8080 –gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:ollama“. Überprüft den Befehl auch über diesen Link, um sicherzugehen.
  • Nachdem der Prozess abgeschlossen ist, solltet ihr in „Docker Desktop“ einen Container namens „open-webui“ mit dem Status „Running“ haben.
  • Nun geht ihr auf localhost:3000 und erstellt einen Account. Die Mailadresse ist dabei nicht wichtig und wird nur als Benutzername benötigt.
  • Ihr seht jetzt ein ChatGPT ähnliches Interface, wählt von hier aus das Modell oben links, hier ist kein Tor installiert. Am besten startet ihr mit „llama3.1“ und klickt dann auf „Pull llama3.1 from ollama.com“.
  • Fertig. Eine Liste von möglichen Modellen findet ihr auf ollama.com/models

OpenWebUI bietet viele erweiterte Funktionen wie Websuche, Erinnerungen, aber auch OpenAI-API-Unterstützung. Es können eigene Modelle und API-Schnittstellen hinzugefügt werden. Ollama muss auch nicht lokal installiert werden. Es gibt auch Tools, um Paperless-NX zu integrieren oder WolframAlpha. So lässt sich sogar der eigene Datensatz zu Hause als Kontext einbinden. Wichtig ist noch zu erwähnen, dass die Größe des RAM oder VRAM entscheidend ist. Wenn das Modell sehr langsam ist oder euer PC unbenutzbar wird, ist das Modell wahrscheinlich zu groß und ihr solltet das nächst kleinere wählen. Llama 3.1 405B (405 Milliarden Parameter) ist lokal noch unrealistisch. Wer das Modell trotzdem laufen lassen will, kann es mithilfe von OpenRouter.ai oder ähnlichen Diensten einbinden. Das kostet zusätzliches Geld und läuft natürlich auch nicht mehr lokal.

Angebot

Angebot

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gothic: Das offizielle Kochbuch soll euch „Volles Pfund ins Maul“ geben

Volles Pfund ins statt aufs Maul: THQ Nordic hat bestätigt, dass ihr ab dem 20. August 2024 im Handel das offizielle Gothic-Kochbuch erstehen könnt. In der Tat handelt es sich hier um ein Kochbuch mit Rezepten, die Gerichten aus dem Spiel nachempfunden sind. Dafür hat sich der Autor Tom Grimm mit dem Essen aus der Spielereihe beschäftigt und 60 Gerichte für die reale Küche abgewandelt.

Warum „abgewandelt“? Na ja, z. B. Fleischwanzenragout lässt sich in der Realität schwer zubereiten, wenn man nicht zumindest ein wenig kreativ wird. Das Buch beinhaltet auch Rezepte für Stollengrollen, Stewarker Schmortopf und eingelegtes Feuerkraut oder brandneue Kreationen wie Trollsülze, gefüllte Scavenger-Eier, Beißer-Rippchen und Blutfliegensüppchen. Dabei sollen Gerichte für sowohl Koch-Anfänger als auch -Experten dabei sein.

Oben seht ihr einmal einige Beispiele aus den Rezepten – ist da vielleicht etwas für euch dabei? Der Verkaufsstart des Kochbuchs wird vom herausgebenden Panini Verlag und Rechteinhaber THQ Nordic auf der Gamescom in Köln (21.-25. August 2024) mit Aktionen und einer Sonderedition des Buches gefeiert.

Das offizielle Gothic-Kochbuch ist ab dem 20. August zum Preis von 33,00 € im Buchhandel sowie im THQ Nordic Store erhältlich. Am Stand von Panini (Merchandising-Halle 5.2, Stand B 12) auf der gamescom wird es obendrein eine auf 222 Exemplare limitierte und handnummerierte Sonderausgabe des Bandes geben. Diese wurde von Tom Grimm und dem Food-Fotografen Dimitrie Harder, der die Gerichte für das Buch ins rechte Licht gerückt hat, signiert.

Den Bänden liegt zudem noch ein limitierter Druck bei, signiert von Game Director Reinhard Pollice und Gothic-Komponist Kai Rosenkranz. Dieses Sammlerstück kostet 66 Euro und ist nur auf der gamescom am Panini-Stand und im THQ Nordic Store erhältlich.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Frohlocket, die Weise hebt an: teenage engineering EP–1320 medieval vorgestellt

teenage engineering ist schon für abgefahrene Geräte und Designs bekannt. Mit dem nun vorgestellten EP–1320 medieval übertrifft man sich wieder selbst. Auf Mittelalter-Märkten, für Games-Soundtracks und mehr soll man das gute Stück nutzen können.

Der Teenage Engineering EP-1320 Medieval setzt auf dem Groove-Sampler EP-133 K.O. II auf. Gedacht ist der Spaß für mittelalterliche Klänge. Nische? Ja. Schräg? Sicher. Der EP-1320 medieval umfasst Hunderte von spielbaren mittelalterlichen Instrumenten – verarbeitet durch analoge Dynamik, Band, Vinyl und mehr; von Saiten und Bögen über Trommeln, Percussion bis hin zu Foley.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies