CubeCL: Multiplattform-Hochleistungs-Compute-Sprachenerweiterung für Rust

2025-04-24
CubeCL: Multiplattform-Hochleistungs-Compute-Sprachenerweiterung für Rust

CubeCL ist eine bahnbrechende Erweiterung der Rust-Programmiersprache, die es Entwicklern ermöglicht, GPU-Compute-Kernels in Rust zu schreiben und dabei kostenneutrale Abstraktionen für wartbare, flexible und effiziente Compute-Kernels zu nutzen. Es unterstützt WGPU-, CUDA- und ROCm/HIP-Runtimes (mit geplanter CPU-Unterstützung) und bietet automatische Vektorisierung, Compile-Time-Berechnungen und automatische Optimierung, wodurch die Entwicklung von Hochleistungs-Kernels und die plattformübergreifende Portabilität vereinfacht werden. Das einzigartige zweistufige Verfahren (Parsing und Expansion) ermöglicht Compile-Time-Optimierungen und eine nahtlose Rust-Integration. CubeCL befindet sich derzeit in der Alpha-Phase, hat aber ein enormes Potenzial, ein Eckpfeiler des Hochleistungsrechnens in Rust zu werden.

Mehr lesen
Entwicklung

Index: Der SOTA Open-Source Browser-Agent für autonome Web-Aufgaben

2025-04-23
Index: Der SOTA Open-Source Browser-Agent für autonome Web-Aufgaben

Index ist ein hochmoderner Open-Source Browser-Agent, der komplexe Web-Aufgaben autonom ausführen kann. Er nutzt leistungsstarke LLMs wie Anthropic's Claude und OpenAI's Modelle und ermöglicht es Benutzern, Prompts wie "Gehe zu ycombinator.com, fasse die ersten 3 Unternehmen im W25-Batch zusammen und erstelle eine neue Tabelle in Google Sheets" einzugeben. Index bietet eine serverlose API für die Produktion, eine interaktive CLI für die lokale Entwicklung, Browser-Zustandspersistierung und mehr. Seine Benutzerfreundlichkeit und leistungsstarken Funktionen machen ihn zum idealen Werkzeug für die Automatisierung der Webdatenextraktion und komplexer Web-Interaktionen.

Mehr lesen
Entwicklung Browser-Agent

Autonome Apache Lucene Beispiele: Eine Einführung in die Volltextsuche für Anfänger

2025-04-23
Autonome Apache Lucene Beispiele: Eine Einführung in die Volltextsuche für Anfänger

Dieses GitHub-Repository bietet eine Sammlung von Apache Lucene-Beispielen mit ausführlichen Kommentaren im Markdown-Format. Jedes Beispiel ist in sich abgeschlossen und ausführbar, sodass Lernende Lucene durch Lesen des Codes, Debugging oder die interaktive Webdokumentation (https://msfroh.github.io/lucene-university/docs/SimpleSearch.html) erkunden können. Das Repository verwendet Lucene 10 und benötigt JDK 21 oder höher. Beiträge sind willkommen!

Mehr lesen
Entwicklung

Erforschung eines neuen Protokolls für Online-Interaktion: Spring83

2025-04-23
Erforschung eines neuen Protokolls für Online-Interaktion: Spring83

Dieses Dokument stellt Spring83 vor, ein experimentelles Protokoll, das entwickelt wurde, um neue Wege der Online-Interaktion zu erforschen. Es ist nicht für Benutzer gedacht, sondern als Einladung an Mitforscher, es zu erkunden und weiterzuentwickeln. Mehrere Implementierungen in verschiedenen Programmiersprachen existieren bereits, und der Autor ermutigt weitere Beiträge zu diesem offenen Projekt.

Mehr lesen

c/ua: Ein leichtgewichtiges Framework für KI-Agenten zur Steuerung vollständiger Betriebssysteme

2025-04-23
c/ua: Ein leichtgewichtiges Framework für KI-Agenten zur Steuerung vollständiger Betriebssysteme

c/ua (ausgesprochen "koo-ah") ist ein leichtgewichtiges Framework, das es KI-Agenten ermöglicht, vollständige Betriebssysteme innerhalb von performanten, leichtgewichtigen virtuellen Containern zu steuern. Es erreicht bis zu 97 % der nativen Geschwindigkeit auf Apple Silicon und funktioniert mit allen visuellen Sprachmodellen. Es integriert Hochleistungsvirtualisierung (Erstellung und Ausführung von macOS/Linux-VMs auf Apple Silicon mit nahezu nativer Leistung mithilfe von Lume CLI und Apples Virtualization.Framework) und eine Computer-Benutzeroberfläche und einen Agenten, sodass KI-Systeme virtuelle Umgebungen beobachten und steuern, im Web surfen, Code schreiben und komplexe Workflows ausführen können. Es gewährleistet Sicherheit, Isolation, hohe Leistung, Flexibilität und Reproduzierbarkeit und unterstützt verschiedene LLM-Anbieter.

Mehr lesen
KI

Advanced Alchemy: Eine Hochleistungs-Bibliothek für SQLAlchemy

2025-04-23
Advanced Alchemy: Eine Hochleistungs-Bibliothek für SQLAlchemy

Advanced Alchemy ist eine sorgfältig entwickelte, gründlich getestete und optimierte Begleitbibliothek für SQLAlchemy. Sie bietet synchrone und asynchrone Repositorys mit gängigen CRUD-Operationen und hochoptimierten Massenoperationen. Sie integriert sich in wichtige Web-Frameworks wie Litestar, Starlette, FastAPI und Sanic und verfügt über eine benutzerdefinierte Alembic-Konfiguration und CLI. Eingebaute Funktionen umfassen einen Dateiobjekt-Datentyp, der verschiedene Speicher-Backends (fsspec und obstore) unterstützt, optimierte JSON-Typen, Unterstützung für UUID6 und UUID7 sowie vorkonfigurierte Basisklassen. Advanced Alchemy vereinfacht CRUD-Operationen für SQLAlchemy-Modelle und bietet Funktionen wie Paginierung, Sortierung und Filterung.

Mehr lesen
Entwicklung Webframeworks

GitHub Code-Vorschlagsanwendungsbeschränkungen

2025-04-23
GitHub Code-Vorschlagsanwendungsbeschränkungen

Mehrere Einschränkungen verhindern die Anwendung von Code-Vorschlägen in GitHub Code Reviews. Dazu gehören: keine Codeänderungen vorgenommen, Pull Request geschlossen, Betrachtung eines Teilbereichs von Änderungen, nur ein Vorschlag pro Zeile erlaubt, Anwendung auf gelöschte Zeilen, Vorschläge bereits angewendet oder als gelöst markiert, Vorschläge aus ausstehenden Reviews, mehrzeilige Kommentare, Pull Request steht zum Mergen an oder Systembeschränkungen.

Mehr lesen
Entwicklung

Lokale Expo Android Builds: Das eas-like-local-builder Docker Image

2025-04-22
Lokale Expo Android Builds: Das eas-like-local-builder Docker Image

Müde von teuren EAS Cloud-Builds? Das eas-like-local-builder Docker Image bietet eine Lösung zum lokalen Bauen von Expo Android Apps. Es emuliert die EAS-Build-Umgebung, inklusive Ubuntu 22.04, JDK 17, NDK r26b und anderer notwendiger Komponenten, sodass Entwickler lokal oder in CI/CD-Umgebungen bauen können. Das Image unterstützt benutzerdefinierte Build-Profile (z. B. Produktion) und ermöglicht das Überspringen von Versionskontrollprüfungen über Umgebungsvariablen. Entwickler müssen nur einfache Docker-Befehle ausführen und ihr Projektverzeichnis mounten, um zu bauen, was den lokalen Build-Prozess erheblich vereinfacht.

Mehr lesen
Entwicklung

AutoKitteh: Eine Python-basierte Workflow-Automatisierungsplattform

2025-04-22
AutoKitteh: Eine Python-basierte Workflow-Automatisierungsplattform

AutoKitteh ist eine entwicklerfreundliche Plattform zur Workflow-Automatisierung und -Orchestrierung, die auf Python basiert und eine codebasierte Alternative zu No-Code/Low-Code-Plattformen bietet. Sie zeichnet sich durch unbegrenzte Flexibilität aus und nutzt Temporal für eine dauerhafte Ausführung, wobei die Komplexität der Infrastruktur und der Codierung abstrahiert wird. AutoKitteh unterstützt Self-Hosting und Cloud-Deployment, eignet sich für DevOps, FinOps, MLOps, SOAR und mehr und verfügt über integrierte Integrationen und eine skalierbare "Serverless"-Architektur.

Mehr lesen
Entwicklung

WinFile: Der Windows-Dateimanager ist zurück!

2025-04-22
WinFile: Der Windows-Dateimanager ist zurück!

Microsoft kündigte an, das WinFile-Projekt am 1. März 2025 zu archivieren, aber die gute Nachricht ist, dass dieser klassische Windows-Dateimanager als native x86-, x64- und arm64-Desktopanwendung wieder zum Leben erweckt wurde und alle aktuell unterstützten Windows-Versionen, einschließlich Windows 11, unterstützt. Der Entwickler nimmt gerne Bugfixes und Verbesserungsvorschläge entgegen, wird aber keine neuen Branches entwickeln. Der WinFile-Quellcode enthält zwei Hauptversionen: den `original_plus`-Branch, der so nah wie möglich am Original gehalten wird, und den aktiv entwickelten `master`-Branch. Benutzer können vorkompilierte Versionen aus dem Microsoft Store oder von der Projektseite herunterladen.

Mehr lesen
Entwicklung

Saphir: Ein Next-Gen Paketmanager in Rust

2025-04-22
Saphir: Ein Next-Gen Paketmanager in Rust

Saphir ist ein experimenteller Paketmanager, der auf Rust basiert und von Homebrew inspiriert wurde. Er ist dazu gedacht, Kommandozeilen-Tools, Bibliotheken, Programmiersprachen, Desktop-Anwendungen und mehr zu installieren und zu verwalten. Zu den Funktionen gehören parallele Downloads, automatische Abhängigkeitsauflösung und das Erstellen aus dem Quellcode. Derzeit nur für ARM, zukünftig möglicherweise auch für x86. Dies ist Alpha-Software; verwenden Sie sie auf eigene Gefahr.

Mehr lesen
Entwicklung

Parcom: Eine prägnante Parser-Combinator-Bibliothek für Common Lisp

2025-04-22
Parcom: Eine prägnante Parser-Combinator-Bibliothek für Common Lisp

Parcom ist eine prägnante Parser-Combinator-Bibliothek für Common Lisp, ähnlich im Stil zu Haskell's Parsec und Rust's Nom. Sie arbeitet direkt mit Strings, ohne Abhängigkeiten, unterstützt viele Common Lisp Implementierungen und bietet eine reiche Auswahl an Parsern und Combinatoren zum Erstellen benutzerdefinierter Parser. Parcom enthält auch einen optionalen JSON-Parser mit Unicode-Unterstützung. Ihre Stärke liegt in der Kombination bestehender Parser zur Erstellung komplexer Parsing-Logik und bietet leistungsstarke Funktionen über eine saubere API.

Mehr lesen
Entwicklung Parser-Combinatoren

Einfache Integration einer KI-Chat-API mit der Python-Bibliothek Rowboat

2025-04-22
Einfache Integration einer KI-Chat-API mit der Python-Bibliothek Rowboat

Dieser Python-Code demonstriert, wie man mit einer KI-Chat-API über die Rowboat-Bibliothek interagiert. Er initialisiert einen Client und verbindet sich mit einem lokal gehosteten API-Dienst. Der Code zeigt zwei Möglichkeiten der Interaktion: die Verwendung der `StatefulChat`-Klasse für zustandsbehaftete Konversationen und die Verwendung der niedrigeren `client.chat`-Methode zum direkten Senden von Nachrichtenarrays. Beide Methoden rufen erfolgreich KI-Antworten ab und geben sie aus, was die Benutzerfreundlichkeit von Rowboat für die schnelle Integration von KI-Chat-Funktionalität in Python-Projekte zeigt.

Mehr lesen
Entwicklung

MemoTTL: Thread-sicheres Memoization-Utility für Ruby mit TTL und LRU

2025-04-22
MemoTTL: Thread-sicheres Memoization-Utility für Ruby mit TTL und LRU

MemoTTL ist ein threadsicheres Memoization-Utility für Ruby, das TTL (Time-To-Live) und LRU (Least Recently Used)-Eviction unterstützt. Es ist für Szenarien konzipiert, in denen zwischengespeicherte Werte nach einer bestimmten Zeit ablaufen und die Speichernutzung begrenzt werden muss. Die Integration erfolgt einfach über `include MemoTTL` und `memoize`, mit Methoden zum Löschen des Caches. Beispiele zeigen die Verwendung in einem Rails-Controller, wodurch die Leistung durch Vermeidung wiederholter Aufrufe teurer Methoden deutlich verbessert wird.

Mehr lesen
Entwicklung

Morphik: Eine revolutionäre Multimodal-Dokumenten-Suchmaschine jenseits von traditionellem RAG

2025-04-22
Morphik: Eine revolutionäre Multimodal-Dokumenten-Suchmaschine jenseits von traditionellem RAG

Morphik ist eine revolutionäre Dokumenten-Suchmaschine, die über traditionelle Retrieval Augmented Generation (RAG) hinausgeht und für hochtechnische und visuelle Dokumente entwickelt wurde. Sie bietet multimodale Suche (Bilder, PDFs, Videos usw.), Erstellung von Wissensgraphen, schnelle Metadatenextraktion und Integrationen mit Tools wie Google Suite, Slack und Confluence. Mit einer kostenlosen Stufe und einer Open-Source-Version vereinfacht Morphik die Aufnahme und Abfrage von Dokumenten mit einem Python SDK und einer REST API. Entwickler können schnell mit einfachem Code und einer benutzerfreundlichen Webkonsole beginnen. Obwohl die Open-Source-Version Einschränkungen hat, engagiert sich Morphik für die Verbesserung der Geschwindigkeit, die Integration weiterer Tools und begrüßt Beiträge der Community.

Mehr lesen

ElatoAI: Echtzeit-KI-Sprachsteuerung für ESP32

2025-04-22
ElatoAI: Echtzeit-KI-Sprachsteuerung für ESP32

ElatoAI ist ein Open-Source-Projekt, das mehr als 10 Minuten ununterbrochene globale Gespräche mithilfe der OpenAI-Realtime-API, ESP32, sicheren WebSockets und Deno Edge-Funktionen ermöglicht. Es besteht aus einem Next.js-Frontend, einem Deno-Edgeserver und einem ESP32-Client und erlaubt benutzerdefinierte KI-Agenten, Sprachauswahl und Personalisierung. Es verwendet den Opus-Codec für hochwertige Audioqualität, niedrige Latenz, sichere Kommunikation über WebSockets und Supabase für Benutzerauthentifizierung und Datenspeicherung. Das Projekt befindet sich in aktiver Entwicklung und freut sich über Beiträge.

Mehr lesen
Entwicklung Echtzeit-Konversation

Schnellstart: RAG, Milvus und Docling mit Feast

2025-04-22
Schnellstart: RAG, Milvus und Docling mit Feast

Dieses Projekt demonstriert, wie man Feast verwendet, um eine Retrieval-Augmented Generation (RAG)-Anwendung zu betreiben. Es erweitert die grundlegende RAG-Demo und zeigt, wie man PDFs mit Docling in Textdaten umwandelt, die von LLMs verwendet werden können, wie man Milvus als Vektor Datenbank verwendet, um Einbettungen für RAG zu speichern und abzurufen, und wie man PDFs während der Ingestion mit Docling transformiert. Zusätzlich werden Online-Retrieval von Features, deklarative Feature-Definitionen, Vektorsuche, strukturierter und unstrukturierter Kontext sowie Versionierung und Wiederverwendbarkeit demonstriert. Das Projekt enthält Beispieldaten, eine Python-Datei, die die Feature-Views und Entitätskonfigurationen für Feast definiert, eine YAML-Datei, die die Offline- und Onlinespeicher konfiguriert, und zwei Haupt-Notebooks: eines, das zeigt, wie man Docling verwendet, um Text aus PDFs zu extrahieren und in einer Parquet-Datei zu speichern, und ein anderes, das zeigt, wie man Feast verwendet, um Textdaten zu importieren und im Onlinespeicher zu speichern und abzurufen.

Mehr lesen
Entwicklung

Libro: Kommandozeilen-Tool zur Buchverwaltung

2025-04-22
Libro: Kommandozeilen-Tool zur Buchverwaltung

Libro ist ein einfaches Kommandozeilen-Tool zum Verwalten Ihrer Lesegeschichte. Die Daten werden lokal in einer SQLite-Datenbank gespeichert. Sie können neue Bücher hinzufügen, Ihren Leseverlauf nach Jahr oder Autor anzeigen, Jahresberichte erstellen und Daten aus einer Goodreads-Export-CSV-Datei importieren. Benutzerfreundlich und leistungsstark, ist Libro perfekt für Bücherwürmer.

Mehr lesen

Verus: Ein statischer Analysator zur Überprüfung der Korrektheit von Rust-Code

2025-04-22
Verus: Ein statischer Analysator zur Überprüfung der Korrektheit von Rust-Code

Verus ist ein statisches Analysetool zur Überprüfung der Korrektheit von in Rust geschriebenem Code. Entwickler schreiben Spezifikationen, was ihr Code tun soll, und Verus überprüft statisch, ob der ausführbare Rust-Code die Spezifikationen für alle möglichen Ausführungen immer erfüllt. Anstatt Laufzeitprüfungen zu verwenden, verlässt sich Verus auf leistungsstarke Solver, um die Korrektheit des Codes zu beweisen. Verus unterstützt derzeit eine Teilmenge von Rust (die wir erweitern), und in einigen Fällen ermöglicht es Entwicklern, über das Standard-Rust-Typsystem hinauszugehen und die Korrektheit von Code zu überprüfen, der beispielsweise Rohzeiger manipuliert. Verus befindet sich in der aktiven Entwicklung; Funktionen können fehlerhaft sein und/oder fehlen, und die Dokumentation ist noch unvollständig.

Mehr lesen
Entwicklung Code-Verifikation

Nostalgie pur: Ein Katalog von BASIC-Spielen der 80er Jahre

2025-04-22
Nostalgie pur: Ein Katalog von BASIC-Spielen der 80er Jahre

Dieser Artikel präsentiert eine faszinierende Liste von BASIC-Spielen aus den 1980er Jahren, die verschiedene Computersysteme wie BASIC-PLUS, EduSystem, DECsystem 10 und HP umfassen. Von einfachen Zahlenratespielen (Acey-Ducey, Bagles) über komplexe Strategiespiele (Gomoko, Bürgerkrieg) bis hin zu Simulationen (HMRABI, KING) zeigt die Vielfalt die Kreativität und den Einfallsreichtum der Programmierung aus dieser Zeit. Diese Spiele, einfach aber fesselnd, werden bei vielen Nostalgie auslösen.

Mehr lesen

Evertop: Ein ultra-energiesparender Solar-PC mit extrem langer Akkulaufzeit

2025-04-21
Evertop: Ein ultra-energiesparender Solar-PC mit extrem langer Akkulaufzeit

Evertop ist ein tragbarer PC, der einen IBM XT mit einem 80186-Prozessor und 1 MB RAM emuliert und DOS, Minix und einige andere Betriebssysteme der 1980er Jahre ausführt, sowie Windows bis Version 3.0. Aufgrund seines leistungsstarken, aber sehr energiesparenden Mikrocontrollers, des E-Ink-Displays, der zwei 10.000-mAh-Akkus und der extremen Energiesparmaßnahmen kann er mit einer einzigen Ladung Hunderte oder sogar Tausende von Stunden betrieben werden. In Kombination mit dem integrierten Solarpanel sollte es möglich sein, ihn unbegrenzt netzunabhängig zu verwenden, ohne sich jemals um die Akkulaufzeit sorgen zu müssen. Er verfügt außerdem über eine Vielzahl integrierter Peripheriegeräte.

Mehr lesen

Open Codex: Lokaler, Open-Source KI-Befehlszeilen-Assistent

2025-04-21
Open Codex: Lokaler, Open-Source KI-Befehlszeilen-Assistent

Open Codex ist ein vollständig Open-Source Befehlszeilen-KI-Assistent, inspiriert von OpenAI Codex, der lokal ohne API-Schlüssel läuft. Er nutzt lokale Sprachmodelle wie phi-4-mini für die Übersetzung von natürlicher Sprache in Shell-Befehle. Funktionen umfassen One-Shot- und interaktive Modi (in Kürze), Befehlsbestätigung, Zwischenablageunterstützung, farbige Terminalausgabe und plattformübergreifende Kompatibilität (macOS, Linux, Windows).

Mehr lesen
Entwicklung lokales Modell

GTK-LLM-Chat: Eine GTK-GUI zum Chatten mit LLMs

2025-04-21
GTK-LLM-Chat: Eine GTK-GUI zum Chatten mit LLMs

gtk-llm-chat ist eine einfache und benutzerfreundliche grafische Benutzeroberfläche, die mit GTK erstellt wurde, um mit Large Language Models (LLMs) zu interagieren. Sie unterstützt mehrere gleichzeitige Konversationen in unabhängigen Fenstern, integriert die python-llm-Bibliothek zum Chatten mit verschiedenen LLM-Modellen und bietet eine moderne Oberfläche, Echtzeit-Streaming-Antworten, Markdown-Rendering, Konversationsverwaltung, Tastaturkürzel, Fragmentunterstützung und einen Applet-Modus. Die Installation ist unkompliziert: Verwenden Sie pipx, um llm zu installieren, und führen Sie `llm install gtk-chat` aus.

Mehr lesen
Entwicklung

Dia: Ein 1,6 Milliarden Parameter Text-to-Speech-Modell von Nari Labs

2025-04-21
Dia: Ein 1,6 Milliarden Parameter Text-to-Speech-Modell von Nari Labs

Nari Labs stellt Dia vor, ein 1,6 Milliarden Parameter Text-to-Speech-Modell, das hochrealistische Dialoge direkt aus Transkripten generieren kann. Benutzer können Emotionen und Ton durch Konditionierung der Ausgabe auf Audio steuern, und das Modell erzeugt sogar nonverbale Hinweise wie Lachen und Husten. Um die Forschung zu beschleunigen, sind vortrainierte Modell-Checkpoints und Inferenzcode auf Hugging Face verfügbar. Eine Demo-Seite vergleicht Dia mit ElevenLabs Studio und Sesame CSM-1B. Es benötigt derzeit etwa 10 GB VRAM und GPU-Unterstützung (CPU-Unterstützung in Kürze), erzeugt aber auf einer A4000 GPU ungefähr 40 Token/Sekunde. Eine quantisierte Version ist für eine verbesserte Speichereffizienz geplant. Das Modell ist unter der Apache License 2.0 lizenziert und verbietet strikt den Missbrauch, wie z. B. Identitätsmissbrauch, die Erzeugung irreführender Inhalte oder illegale Aktivitäten.

Mehr lesen
KI

C-String-Funktionen: Ein kurzer Überblick

2025-04-21
C-String-Funktionen: Ein kurzer Überblick

Dieser Artikel bietet einen kurzen Überblick über einige häufig verwendete C-String-Manipulationsfunktionen: `strlen()` erhält die Länge eines Strings; `strcpy()` kopiert Strings; `strcat()` konkateniert Strings; `strncat()` konkateniert sicher eine angegebene Anzahl von Zeichen; `strcmp()` vergleicht Strings; `strcspn()` findet das erste Zeichen, das nicht in einer angegebenen Menge enthalten ist; `strerror()` erhält die Fehlermeldung für einen Fehlercode; `memchr()` findet einen Wert in einem Speicherblock; und `strrev()` (nicht standardisiert) kehrt einen String um. Die Beherrschung dieser Funktionen ist entscheidend für effizientes C-Programmieren.

Mehr lesen
Entwicklung String-Funktionen

Nerdlog: Ein schneller, serverloser Remote-Log-Viewer

2025-04-21
Nerdlog: Ein schneller, serverloser Remote-Log-Viewer

Nerdlog ist ein schneller, remote-first, Multi-Host-TUI-Log-Viewer mit Zeitlinien-Histogramm und ohne zentralen Server. Inspiriert von Graylog/Kibana, aber ohne den Ballast, benötigt er minimale Einrichtung. Er fragt effizient gleichzeitig Logs von mehreren Remote-Maschinen ab, filtert nach Zeitbereich und Mustern und zeigt ein Zeitlinien-Histogramm für schnelle visuelle Einblicke an. Hauptsächlich zum Lesen von Systemlogs (/var/log/messages oder /var/log/syslog) von einem oder mehreren Remote-Hosts entwickelt, ist er selbst bei großen Logdateien (1 GB oder mehr) sehr effizient. Obwohl er weitere Logformate unterstützt, stammt seine Kernfunktionalität aus der Notwendigkeit, Logs von zahlreichen Webservice-Backend-Instanzen effizient zu überwachen. Nerdlog verbindet sich über SSH, hält die Verbindungen im Hintergrund im Leerlauf. Die Log-Analyse findet remote statt, wobei nur minimale Daten pro Abfrage heruntergeladen werden, und gzip-Komprimierung für Bandbreiteneffizienz verwendet wird. Es verfügt über eine Vim-ähnliche Befehlszeilenschnittstelle und Tastenkombinationen für intuitive Navigation und Steuerung.

Mehr lesen
Entwicklung Remote-Logging

Reverse Engineering von TikToks VM: Entschlüsselung von webmssdk.js

2025-04-21
Reverse Engineering von TikToks VM: Entschlüsselung von webmssdk.js

Dieses Projekt beschreibt das Reverse Engineering der benutzerdefinierten virtuellen Maschine (VM) von TikTok, die in webmssdk.js zu finden ist. Die VM ist ein wichtiger Bestandteil der Obfuskation und Sicherheit von TikTok. Das Projekt enthält Tools zum Deobfuscating von webmssdk.js, zum Dekompilieren der VM-Instruktionen in lesbaren Code, zum Injizieren eines Skripts, um webmssdk.js durch die deobfuscated Version zu ersetzen, und zum Generieren signierter URLs für authentifizierte Anfragen (wie das Posten von Kommentaren). Der Autor hat bedeutende Obfuskationstechniken überwunden, darunter die Klammernnotation und getarnte Funktionsaufrufe, um die VM erfolgreich zu deobfuscated und zu dekompilieren und letztendlich die Generierung von Signaturen für authentifizierte Anfragen zu ermöglichen.

Mehr lesen
Entwicklung

Sofortiges PyTorch-Training: Hot-Swapping von LLMs ohne VRAM-Entladung

2025-04-21
Sofortiges PyTorch-Training: Hot-Swapping von LLMs ohne VRAM-Entladung

Die Ladezeiten großer Sprachmodelle können die Entwicklung erheblich verlangsamen. Dieses Projekt stellt eine Hot-Swapping-Lösung für PyTorch-Trainingscode vor. Durch Beibehaltung des Modells im VRAM über einen Hintergrundprozess wird ein nahezu sofortiger Start erreicht. Selbst nach dem Beenden des Skripts bleibt das Modell geladen und ist für die nächste Ausführung sofort einsatzbereit. Fern-Debugging und die Integration der Dear ImGui-Benutzeroberfläche werden unterstützt, was die Entwicklereffizienz steigert. Ersetzen Sie einfach Ihre `from_pretrained`-Aufrufe, um sofortige Ausführung und einfaches Debugging zu erleben.

Mehr lesen
Entwicklung

Rekursive Prompts: Rekursion mit LLMs implementieren

2025-04-20
Rekursive Prompts: Rekursion mit LLMs implementieren

Dieser Artikel untersucht einen neuartigen Ansatz zur Implementierung von Rekursion mithilfe großer Sprachmodelle (LLMs). Durch die Erstellung eines rekursiven Prompts, der seinen internen Zustand iterativ aktualisiert, zeigt der Autor, wie ein LLM eine Folge von Prompts generieren kann, die zu einer Lösung konvergieren, was das Verhalten rekursiver Funktionen im Code widerspiegelt. Der Artikel verwendet die Fibonacci-Sequenz als Beispiel und zeigt, wie rekursive Prompts Berechnungen durchführen können. Er erörtert auch Herausforderungen wie die Behandlung von Ungenauigkeiten in der Ausgabe des LLM und die Nutzung der vorhandenen Wissensbasis des LLM, wobei Parallelen zur Art und Weise gezogen werden, wie Menschen Kopfrechnen mithilfe memorierter algebraischer und atomarer Regeln durchführen. Die Arbeit steht im Zusammenhang mit verwandten Forschungen wie ReAct und ACT-R und behandelt Strategien zur Minderung von Fehlern in den vom LLM generierten Ergebnissen.

Mehr lesen
KI

Tini: Ein winziger, aber valider Init für Container

2025-04-20
Tini: Ein winziger, aber valider Init für Container

Tini ist der einfachste Init, den man sich vorstellen kann. Tini erzeugt lediglich ein einzelnes Kindprozess (Tini soll in einem Container ausgeführt werden), wartet auf dessen Beendigung und räumt dabei Zombies auf und leitet Signale weiter. Die Verwendung von Tini bietet mehrere Vorteile: Schutz vor Software, die versehentlich Zombie-Prozesse erzeugt; Sicherstellung, dass die Standard-Signalhandler für die in Ihrem Docker-Image ausgeführte Software funktionieren; und dies geschieht völlig transparent. In Docker 1.13 oder höher ist Tini bereits enthalten. Für ältere Versionen muss Tini manuell installiert werden.

Mehr lesen
Entwicklung Init Zombie-Prozesse
1 2 22 23 24 26 28 29 30 50 51