@pallenberg @lelei Dazu habe ich gleich mal die Frage mit welchen LLM's man damit die beste Performance erreicht?
Ich habe selber einen M4 mit 16 GB RAM. Funktioniert zwar mit Ollama und Open-Webui, aber eben eher mit Wartezeit. Für Prozesse im Hintergrund ok, schnelles Feedback ist eher mau.
Kannst du eine Empfehlung abgeben?