Video Station fliegt raus: Synology DSM 7.2.2-72803 veröffentlicht

Es war erstaunlich lange ruhig im Bereich der Updates für den DiskStation Manager von Synology. Nun hat der Hersteller von Kameras, Routern und NAS-Geräten die Aktualisierung auf Version 7.2.2-72803 veröffentlicht. Eine durchaus große Änderung dürfte einigen Nutzern nicht gefallen. Das Paket Video Station ist ab der Version 7.2.2 nicht mehr verfügbar.

Aufgrund der weitverbreiteten Unterstützung von Videocodecs auf Endgeräten wie Smartphones, Tablets, Computern und Smart-TVs lagert Synology die Medienverarbeitung in allen Versionen von DiskStation Manager (DSM) und BeeStation OS auf Client-Geräte aus, um die Effizienz der Systeme zu erhöhen – so die offizielle Aussage. Letzten Endes ist dies wohl das Ende der HEVC (H.265)-, AVC (H.264)- und VC-1-Transkodierung auf DSM- und BeeStation OS-Plattformen. Vielleicht ist es gar eine Lizenzgeschichte.

Laut des Unternehmens können Anwender auf die Wiedergabemöglichkeiten von Synology Drive, File Station oder Drittanbieter-Pakete wie Emby oder Plex zugreifen. Eine entsprechende FAQ-Seite hat Synology hier veröffentlicht. Das Changelog für Synology DSM 7.2.2-72803 ist recht lang, man hat zahlreiche Probleme behoben und auch Schwachstellen geschlossen. Wie immer kann es länger dauern, bis das Update ankommt, der Rollout geschieht in Wellen. Wer nicht warten möchte, kann das Paket für sein NAS von den Synology-Servern laden.

Behobene Probleme

  1. Verbesserter Schutz gegen das Löschen unveränderlicher Snapshots.
  2. Verbesserte Behebung von Dateisystemfehlern.
  3. Ein Problem wurde behoben, bei dem das Sichern von freigegebenen WriteOnce-Ordnern in Hyper Backup möglicherweise zusätzlichen Speicherplatz beanspruchte.
  4. Die Leistung von Thick Provisioned LUNs wurde verbessert, wenn das Volume fast voll ist.
  5. Verbesserte Dateisuchleistung, wenn eine große Anzahl von Dateien mit demselben Namen vorhanden ist.
  6. Ein Problem wurde behoben, bei dem ein Neustart des Systems während einer vollständigen Systemsicherung dazu führen konnte, dass Volumes nicht richtig bereitgestellt wurden.
  7. Ein Problem wurde behoben, bei dem geplante Aufgaben zum Leeren von Papierkörben möglicherweise Ordner nicht löschen konnten, die nur die Datei „desktop.ini“ enthalten.
  8. Es wurde ein Problem behoben, bei dem das Auslösen von Adaptive MFA oder die Eingabe falscher Kontoanmeldeinformationen dazu führen konnte, dass die automatische Blockierungsfunktion die Anmeldeversuche ungewöhnlich hoch zählte.
  9. Ein Problem wurde behoben, bei dem Benutzer möglicherweise kein OTP für die Anmeldung einrichten konnten.
  10. Ein Problem wurde behoben, bei dem das Hochladen von IdP-Metadaten beim Einrichten von SAML-SSO-Clients fehlschlagen konnte.
  11. Ein Problem wurde behoben, bei dem Benutzer nach der Verwendung der OIDC SSO-Anmeldung möglicherweise nicht zu DS Cam oder DS Finder zurückkehrten.
  12. Ein Problem wurde behoben, bei dem Benutzer möglicherweise keine E-Mails mit Notfallcodes erhielten, wenn sie 2FA für die DSM-Anmeldung verwendeten.
  13. Ein Problem wurde behoben, bei dem die Datensynchronisierung beim Erstellen von Sicherungs- oder Replikationsaufgaben auf einem Remote-Zielserver über Snapshot Replication, Hyper Backup oder andere Pakete fehlschlagen konnte.
  14. Ein Problem wurde behoben, bei dem die Anmeldung beim Erstellen von Sicherungs- oder Replikationsaufgaben auf einem Remote-Zielserver über Snapshot Replication, Hyper Backup oder andere Pakete fehlschlagen konnte.
  15. Ein Problem wurde behoben, bei dem OpenVPN Gateways möglicherweise nicht deaktivieren konnte.
  16. Ein Problem wurde behoben, bei dem die Verwendung von SAML SSO für die DSM-Anmeldung fehlschlagen konnte, wenn die Antwort des IdP zu lang war.
  17. Ein Problem wurde behoben, bei dem das System beim Einrichten von OIDC-SSO-Clients möglicherweise nicht mehr reagierte.
  18. Ein Problem wurde behoben, bei dem der Ressourcenmonitor unter „Verbindungen > Verbundene Benutzer“ möglicherweise abnormale Verbindungszeiten anzeigte.
  19. Ein Problem wurde behoben, bei dem Benutzer möglicherweise keinen Hardware-Sicherheitsschlüssel für die DSM-Anmeldung verwenden konnten.
  20. Eine Sicherheitslücke in Bezug auf Ghostscript (CVE-2024-29510) wurde behoben.
  21. Sicherheitslücken in Bezug auf Netatalk (CVE-2024-38439, CVE-2024-38440, CVE-2024-38441) behoben.
  22. Eine Sicherheitslücke in Bezug auf den Terrapin-Angriff (CVE-2023-48795) wurde behoben.
  23. Eine Sicherheitslücke in Bezug auf glibc (CVE-2023-4911) wurde behoben.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Telegram: „Halten uns an EU-Gesetze“

Telegrams Chef Pavel Durov bleibt weiterhin in Frankreich in Haft. Dort war er auf einem Flughafen nahe Paris festgenommen worden (wir berichteten). Die Justiz dort ist der Ansicht, dass Telegram aufgrund mangelnder Moderation, mangelnder Zusammenarbeit mit den Strafverfolgungsbehörden und der von Telegram angebotenen Werkzeuge (Einwegnummer, Kryptowährungen usw.) an Drogenhandel, Kinderkriminalität und Betrug beteiligt ist.

Laut Telegram habe man nichts zu verheimlichen. „Es ist absurd zu behaupten, dass eine Plattform oder ihr Besitzer für den Missbrauch dieser Plattform verantwortlich ist“, sagt das Unternehmen in einer Erklärung, die am Sonntag auf seinem offiziellen Kanal in der Telegram-App und auf X veröffentlicht wurde. Ferner hieß es weiter: „Telegram hält sich an EU-Gesetze, einschließlich des Digital Services Act – seine Moderation entspricht den Branchenstandards und wird ständig verbessert.“

Die Botschaft Russlands in Paris sagte, sie habe „die französischen Behörden um eine Erklärung der Gründe gebeten und gefordert, dass sie den Schutz seiner Rechte sicherstellen und konsularischen Zugang gewähren“. Botschaftsmitarbeiter stehen laut der Erklärung mit Durovs Anwalt in Kontakt, so übereinstimmende Berichte französischer und amerikanischer Medien.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

OpenWebUI und Ollama – Lokale LLMs ausführen

Large Language Models (LLMs) sind derzeit überall zu finden. Mit riesigen Datenmengen trainiert, können sie menschliche Sprache verstehen und generieren. Dabei gibt es immer mehr LLMs die größer und besser werden. Die bekanntesten sind derzeit GPT-4o, Claude 3.5 Sonnet und Gemini 1.5.

Die Stärke der LLMs liegt in ihrer Fähigkeit, Zusammenhänge zu erkennen und kontextbezogen zu antworten. Dazu nutzen sie komplexe neuronale Netzwerke und Aufmerksamkeitsmechanismen, um Intentionen zu erfassen und Antworten mit ihrem erlernten Wissen zu verarbeiten. Die großen LLMs haben aber auch Nachteile: Datenschutzbedenken, mögliche Verzerrungen in den Trainingsdaten und die Tendenz, gelegentlich falsche Informationen zu produzieren. Eine mögliche Lösung für diese Probleme sind lokale LLMs wie LLama 3.1 (Meta), Gemma2 (Google).

Bei lokalen LLMs ist meist auch eine spezielle Metrik bekannt: die Anzahl der Parameter. In einem LLM bestimmen Gewichte, wie stark Eingaben (z. B. Wörter) bestimmte Muster aktivieren. Sie regeln, wie stark ein Neuron (hier ein mathematischer Knotenpunkt) ein anderes beeinflusst. Biases verschieben die Aktivierungsschwelle eines Neurons, sodass das Modell auch ohne spezifische Eingaben aktiviert werden kann. Zusammen formen Gewichte und Biases die „Entscheidungen“ des Modells. Je mehr Parameter (Gewichte und Biases) vorhanden sind, desto feiner kann das Modell Details erkennen und komplexe Zusammenhänge verarbeiten, was seine Genauigkeit und Sprachfähigkeiten verbessert. Aber es braucht auch dementsprechend mehr Speicher. Llama 3.1 8B braucht ungefähr 16 GB VRAM. 405B braucht dabei bereits 860 GB VRAM.

Der einfachste Weg ist Ollama mit OpenWebUI. Es gibt auch andere Möglichkeiten, wie LM Studio und Jan.ai. Dennoch liefert OpenWebUI zusammen mit Ollama die besten Ergebnisse, besonders für Benutzer einer Nvidia GPU. Hier kommen wir zum größten Problem für lokale LLMs: Sie benötigen viel RAM oder VRAM. 16GB für die GPU-Version und 32 GB für die CPU-Version. Das hängt aber auch sehr von der Parametergröße des Modells ab. Meine Empfehlung: Derzeit ist es am sinnvollsten, LLMs auf der GPU auszuführen, sie laufen dort in der Regel deutlich schneller, da GPUs mehr parallele Operationen ausführen können. Apple M1-M3 können auch verwendet werden, die untenstehende Anleitung funktioniert größtenteils auch damit (Ollama muss selbst installiert werden). Wenn man hier viel RAM hat (64 GB ), läuft Llama 3.1 70B sogar schneller als auf einer RTX 4090.

Wie installiere ich jetzt OpenWebUI und Ollama (GPU-Support) unter Windows?

  • Zuerst installiert ihr das WSL (Windows Subsystem für Linux) mit dem Befehl „wsl -update“ im Terminal.
  • Danach installiert ihr die für euer System passende Version von Docker Desktop von https://docker.com und öffnet sie nach der Installation (ihr müsst euer System mindestens einmal neustarten).
  • Im Terminal könnt ihr nun folgenden Befehl eingeben: „docker run -d -p 3000:8080 –gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:ollama“. Überprüft den Befehl auch über diesen Link, um sicherzugehen.
  • Nachdem der Prozess abgeschlossen ist, solltet ihr in „Docker Desktop“ einen Container namens „open-webui“ mit dem Status „Running“ haben.
  • Nun geht ihr auf localhost:3000 und erstellt einen Account. Die Mailadresse ist dabei nicht wichtig und wird nur als Benutzername benötigt.
  • Ihr seht jetzt ein ChatGPT ähnliches Interface, wählt von hier aus das Modell oben links, hier ist kein Tor installiert. Am besten startet ihr mit „llama3.1“ und klickt dann auf „Pull llama3.1 from ollama.com“.
  • Fertig. Eine Liste von möglichen Modellen findet ihr auf ollama.com/models

OpenWebUI bietet viele erweiterte Funktionen wie Websuche, Erinnerungen, aber auch OpenAI-API-Unterstützung. Es können eigene Modelle und API-Schnittstellen hinzugefügt werden. Ollama muss auch nicht lokal installiert werden. Es gibt auch Tools, um Paperless-NX zu integrieren oder WolframAlpha. So lässt sich sogar der eigene Datensatz zu Hause als Kontext einbinden. Wichtig ist noch zu erwähnen, dass die Größe des RAM oder VRAM entscheidend ist. Wenn das Modell sehr langsam ist oder euer PC unbenutzbar wird, ist das Modell wahrscheinlich zu groß und ihr solltet das nächst kleinere wählen. Llama 3.1 405B (405 Milliarden Parameter) ist lokal noch unrealistisch. Wer das Modell trotzdem laufen lassen will, kann es mithilfe von OpenRouter.ai oder ähnlichen Diensten einbinden. Das kostet zusätzliches Geld und läuft natürlich auch nicht mehr lokal.

Angebot

Angebot

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

LibreOffice 24.8 veröffentlicht, nun auch mit nativer Windows-on-ARM-Unterstützung

LibreOffice 24.8, die neue Hauptversion der kostenlosen Bürosuite für Windows (Intel, AMD und ARM), macOS (Apple und Intel) und Linux ist ab sofort verfügbar. Dies ist die zweite Hauptversion, die das neue kalenderbasierte Nummerierungsschema (JJ.MM) verwendet, und die erste, die ein offizielles Paket für Windows-PCs mit ARM-Prozessoren bereitstellt.

Wer nur gelegentlich eines der Module von LibreOffice nutzt, dem wird vermutlich gar nicht auffallen, wie viel Neues in der Version 24.8 steckt. Das Changelog ist dieses Mal sehr lang, wer die ganzen Funktionen in Aktion sehen möchte, der kann sich alternativ auch dieses Video anschauen:

Änderungsprotokoll LibreOffice 24.8

PRIVACY

  • If the option Tools ? Options ? LibreOffice ? Security ? Options ? Remove personal information on saving is enabled, then personal information will not be exported (author names and timestamps, editing duration, printer name and config, document template, author and date for comments and tracked changes)

WRITER

  • UI: handling of formatting characters, width of comments panel, selection of bullets, new dialog for hyperlinks, new Find deck in the sidebar
  • Navigator: adding cross-references by drag-and-drop items, deleting footnotes and endnotes, indicating images with broken links
  • Hyphenation: exclude words from hyphenation with new contextual menu and visualization, new hyphenation across columns, pages or spreads, hyphenation between constituents of a compound word

CALC

  • Addition of FILTER, LET, RANDARRAY, SEQUENCE, SORT, SORTBY, UNIQUE, XLOOKUP and XMATCH functions
  • Improvement of threaded calculation performance, optimization of redraw after a cell change by minimizing the area that needs to be refreshed
  • Cell focus rectangle moved apart from cell content
  • Comments can be edited and deleted from the Navigator’s right-click menu

IMPRESS & DRAW

  • In Normal view, it is now possible to scroll between slides, and the Notes are available as a collapsible pane under the slide
  • By default, the running Slideshow is now immediately updated when applying changes in EditView or in PresenterConsole, even on different Screens

CHART

  • New chart types “Pie-of-Pie” and “Bar-of-Pie” break down a slice of a pie as a pie or bar sub-chart respectively (this also enables import of such charts from OOXML files created with Microsoft Office)
  • Text inside chart’s titles, text boxes and shapes (and parts thereof) can now be formatted using the Character dialog

ACCESSIBILITY

  • Several improvements to the management of formatting options, which can be now announced properly by screen readers

SECURITY

  • New mode of password-based ODF encryption

INTEROPERABILITY

  • Support importing and exporting OOXML pivot table (cell) format definitions
  • PPTX files with heavy use of custom shapes now open faster

Angebot


Microsoft 365 Family 12 3 Monate Abonnement | 6 Nutzer | Mehrere PCs/Macs, Tablets/mobile Geräte |Download Code  ...

Angebot


Microsoft 365 Family | 27 Monate, bis zu 6 Nutzer | Word, Excel, PowerPoint | 1TB OneDrive Cloudspeicher | PCs/Macs...

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Adobe: Forscher stellen neues KI-Feature „Magic Fixup“ vor

Forscher von Adobe haben ein neues Feature namens „Magic Fixup“ vorgestellt, das in der Lage ist, Bildausschnitte zu reparieren. Man kann damit Bereiche von Bildern ausbessern, ähnlich dem Content Aware Fill. Das ist per se nichts Neues und findet sich in vielen anderen Tools auch. Was neu ist, ist die Art des Trainings des KI-Modells, was genutzt wird. Im Gegensatz zu anderen Modellen, die mit statischen Bildern trainiert werden, nutzt man bei Adobe Video-Daten. Dadurch kann die KI besser »verstehen«, wie Bereiche eines Bildes in unterschiedlichen Szenarien, Perspektiven und Lichtverhältnissen verändert werden.

Adobe released Magic Fixup!

local @Gradio demo: https://t.co/pCk07tfehy

enable users to edit images with simple a cut-and-paste like approach, and fixup those edits automatically. pic.twitter.com/xBC1mMAkIW

— AK (@_akhaliq) August 21, 2024

Durch dieses Training sollen die Ergebnisse auch in anspruchsvollen Beispielen wesentlich besser ausfallen. Neben dem Füllen von Bereichen kann man außerdem Objekte neu positionieren, die Größe verändern etc. Die KI passt dann die Bildbereiche an.

Wer sich für die Details interessiert, kann das Paper und den Code bei GitHub finden. 

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies