AI LLM Relay

AI LLM Relay

Vandaag lanceren we: AI LLM Relay

Het project is te vinden op onze github: https://github.com/DomoticX/ai-llm-relay

Wat is het?

Een flexibele PHP-gebaseerde relay voor OpenAI-compatibele LLM-servers (LM Studio, Ollama, vLLM, Anthropic, enz.).

Eenvoudig te deployen op shared hosting of een VPS/dedicated server, geen SQL-database nodig!

Waarvoor te gebruiken?

  1. Je hebt LLM software lokaal draaien op je eigen netwerk (bijvoorbeeld met LM Studio)
  2. Via de router is portforwarding ingesteld.
  3. Je wilt je eigen prive IP adres verbergen.
  4. Je hebt meerdere LLM computers in je netwerk actief, dan kan men deze relay gebruiken om de target computer in te stellen.
  5. Je kan IP en poort routen op basis van de meegeleverde token.

Functies:

  • Token-routing: Route inkomende Bearer-tokens naar verschillende upstream LLM-servers
  • Beheerpaneel: XHTML/CSS/JavaScript-interface voor het beheren van relay-regels
  • Veilige login: Wachtwoordhash (bcrypt) + anti-brute-force rekensom-challenge
  • Streaming: Directe streaming-doorgifte naar de client
  • Verbindingstests: Test upstream-verbindingen vanuit het beheerpaneel
  • Export: Download de volledige configuratie als JSON
  • Meertalige UI: Interface beschikbaar in Nederlands, Engels en Duits