iphone-ticker.de — Alles zum iPhone. Seit 2007. 38 822 Artikel

Für Llama 2, Mistral, Vicuna und Co.

Enchanted LLM: KI-App für selbst verwaltete Sprachmodelle

Artikel auf Mastodon teilen.
6 Kommentare 6

Zwar gibt der KI-Chatbot ChatGPT nach wie vor den Ton an, allerdings ist das Angebot von OpenAI nicht alternativlos. Im Netz bieten sich zahlreiche Chatbots von Drittanbietern wie Meta an, die sich lokal und kostenlos nutzen lassen. Anwendungen wie Private LLM machen den Einsatz alternativer Sprachmodelle dabei schon länger auch direkt auf dem iPhone möglich.

Enchanted Wo Ist Das

App für selbst verwaltete Sprachmodelle

Mit der noch recht jungen Universal-App Enchanted LLM steht nun auch eine gänzlich kostenfreie Anwendung für iPhone, Mac und Vision Pro zur Verfügung, die es euch ermöglicht, mit selbst gehosteten KI-Modellen zu interagieren.

Die Enchanted-App unterstützt die Ollama API und ist kompatibel mit Modellen wie Mistral, Vicuna und anderen. Um Enchanted nutzen zu können, muss in den Einstellungen der Open-Source-Anwendung lediglich ein aktiver Ollama-Server eingetragen werden.

Anwender können schnell zwischen verschiedenen Modellen wechseln, um ihre Eingaben zu testen. Zudem unterstützt die App Markdown, ist also in der Lage, Tabellen, Listen und Codeblöcke ansprechend zu formatieren. Läuft der Ollama-Server im eigenen Heimnetzwerk, kann die Anwendung vollständig offline eingesetzt werden.

Enchanted 2000

Viele Komfort-Funktionen an Bord

Zu den weiteren Funktionen von Enchanted gehören die Text-zu-Sprache-Funktion, die Einbeziehung der Gesprächshistorie in API-Aufrufe, ein Dunkel- und Hellmodus sowie die Speicherung der Gesprächshistorie auf dem Gerät.

Zudem bietet die App Sprachsteuerung, die Möglichkeit, Bilddateien in den Eingaben anzuhängen, anpassbare Systemvorgaben für jede Konversation und die Option, Nachrichteninhalte zu bearbeiten oder mit einem anderen Modell erneut zu senden. Eine Löschfunktion für einzelne oder alle Konversationen und die Integration von Spotlight unter macOS runden das Angebot ab.

Zur Installation eines Ollama-Servers auf dem Mac eignet sich die Mac-Anwendung Ollama.

Laden im App Store
‎Enchanted LLM
‎Enchanted LLM
Entwickler: Augustinas Malinauskas
Preis: Kostenlos
Laden

28. Mai 2024 um 09:00 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    6 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Weis jemand obs sowas wie LM Studio aber für iOS gibt? Womit man LLMs wie Mistral 7B, Llama 3 oder Phi-3 lokal ausführen kann?

  • Das Model wird lokal ausgeführt aber man braucht dennoch einen Server?

    • Ja, du führst das Modell lokal auf deinem Mac aus. Dann kannst du Enchanted LLM gleichzeitig als Client auf dem Mac, auf iPhone, iPad und Apple Vision nutzen, ohne die auf allen Maschinen das ~5 GB große Modell laden zu müssen. Hast einen einheitlichen Chatverlauf und kannst Änderungen am Modell an nur einer Stelle vornehmen, ohne dies auf allen Clients nacheinander angehen zu müssen.

      Wer Ollama auf dem Mac für den Server nutzt: Einmal beenden, dann im Terminal:
      launchctl setenv OLLAMA_HOST „0.0.0.0“
      Dies macht den Server dann für alle Clients über die lokale IP des Mac erreichbar.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 38822 Artikel in den vergangenen 6319 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven