Local AI
Description
Ollama permet d'exécuter des modèles de langage localement sur votre machine, sans connexion internet. Il supporte de nombreux modèles open-source comme Llama, Mistral, et bien d'autres.
Cas d'usage
- Exécution locale de modèles IA
- Développement sans API externe
- Confidentialité des données
- Expérimentation avec modèles open-source
Fonctionnalités
- Exécution locale
- Multi-modèles supportés
- API simple
- Gestion automatique des modèles
- Cross-platform