Bonjour,
[ma config : M1pro 2021, 32go de RAM]
Je crée ce sujet parce que je cherche à me doter d'une IA en locale, la plus open source possible. J'utilise parfois Claude, mais j'aimerais passer à un modèle local, par curiosité, et aussi parce que j'aimerais pouvoir utiliser ce modèle sans être connecté à internet.
J'ai fait quelques recherches, mais je tâtone pas mal.
De ce que j'ai compris ici :
www.zdnet.fr
Il faut que je choisisse un utilitaire d'exécution et un modèle.
J'ai téléchargé Ollama, et quand je le lance et que je pose une question, il télécharge gpt-oss:20b. Je lui pose une question sur un sujet que je connais bien, et la réponse est catastrophique, pure hallucination d'IA semée de quelques vérités.
Le modèle que j'avais retenu et qui m'intéresse est le suivant : falcon 40b (un peu au hasard pour être honnête, j'ai lu des choses qui me plaisent à son sujet mais sans plus).
ollama pull falcon:40b-instruct
falcon:40b est maintenant disponible quand je lance ollama, je repose la même question, trois points de suspensions s'affichent et m'indiquent qu'Olllama est en train d'exécuter ma demande... mais ça dure ça dure et je n'ai pas de réponse, j'ai l'impression que ce modèle est bien trop gourmand pour ma machine, ce que je confirme en posant la question à gpt-oss:20b qui me conseille de me rabattre sur Falcon‑7B, tout en me disant que ma machine sera quand même très lente avec ce modèle.
A ce stade je me dis que je ne comprends pas grand chose et que j'ai besoin d'aide et de retours d'expérience. Est-ce que vous utlisez des modèles IA en local ? Si oui, avec une configuration proche de la mienne ? Est-ce que vous pouvez me conseiller des modèles ? Est-ce que c'est un bon départ de partir sur Ollama ?
Merci d'avance
Igorbatchev
[ma config : M1pro 2021, 32go de RAM]
Je crée ce sujet parce que je cherche à me doter d'une IA en locale, la plus open source possible. J'utilise parfois Claude, mais j'aimerais passer à un modèle local, par curiosité, et aussi parce que j'aimerais pouvoir utiliser ce modèle sans être connecté à internet.
J'ai fait quelques recherches, mais je tâtone pas mal.
De ce que j'ai compris ici :
Les meilleurs modèles d'IA open-source : toutes les options gratuites expliquées pour vous - ZDNET
Voici les meilleurs modèles d'IA libres et gratuits pour le texte, les images et l'audio, classés par type, par application et par licence.
J'ai téléchargé Ollama, et quand je le lance et que je pose une question, il télécharge gpt-oss:20b. Je lui pose une question sur un sujet que je connais bien, et la réponse est catastrophique, pure hallucination d'IA semée de quelques vérités.
Le modèle que j'avais retenu et qui m'intéresse est le suivant : falcon 40b (un peu au hasard pour être honnête, j'ai lu des choses qui me plaisent à son sujet mais sans plus).
ollama pull falcon:40b-instruct
falcon:40b est maintenant disponible quand je lance ollama, je repose la même question, trois points de suspensions s'affichent et m'indiquent qu'Olllama est en train d'exécuter ma demande... mais ça dure ça dure et je n'ai pas de réponse, j'ai l'impression que ce modèle est bien trop gourmand pour ma machine, ce que je confirme en posant la question à gpt-oss:20b qui me conseille de me rabattre sur Falcon‑7B, tout en me disant que ma machine sera quand même très lente avec ce modèle.
A ce stade je me dis que je ne comprends pas grand chose et que j'ai besoin d'aide et de retours d'expérience. Est-ce que vous utlisez des modèles IA en local ? Si oui, avec une configuration proche de la mienne ? Est-ce que vous pouvez me conseiller des modèles ? Est-ce que c'est un bon départ de partir sur Ollama ?
Merci d'avance
Igorbatchev