Deze technische documentatie beschrijft stap voor stap hoe je een eigen lokale LLM-omgeving kunt opzetten. Met deze configuratie kun je privacy-vriendelijk experimenteren met taalmodellen, zonder afhankelijkheid van externe partijen zoals OpenAI, Google of Microsoft.
De documentatie bestaat uit de volgende onderdelen:
- Informatie over de hardware
- Informatie over de benodigde software
- Hoe de omgeving makkelijk te deployen met behulp van docker
- Informatie over hoe de omgeving te beheren
- Ervaringen en interessante experimenten
- NOLAI Whitepaper
- NOLAI Nieuwsbericht
Mocht er iets niet werken, er leuke use cases zijn die nog niet genoemd zijn of iets onduidelijk zijn maak gerust een issue. Wij horen het graag en zo houden we de documentatie up-to-date en nuttig.