Un lama et deux bozos
Ollama + pinokio = LLM gratis sur ton laptop đŠ

Câest la premiĂšre fois de ma vie quâune dĂ©mo fonctionne du premier coup!
On venait de faire rouler Llama 3.2. Rendu Ă tester DeepSeek-R1, quand mi-promptâŠ
___full laptop crash___
Coincidence? JE NE CROIS PAS, CCP!
Bref, Douville dâApollo13 mâa appris Ă rouler des modĂšles dâAI aux milliards de paramĂštres direct sur ma machine. Dans un UI trĂšs utilisateur-amical. Pour 0 piastre.
Bonus : ta data reste sur ton ordi. MĂȘme pas besoin dâĂȘtre connectĂ© sur le Ternet.
TsĂ©, les abonnements Ă ChatGPT, Claude, Perplexity, etc., sâaccumulent. Et ils tâimposent souvent des limites dâutilisation. Ce qui aggrave immĂ©diatement la situation dĂ©jĂ super Ă©prouvante dâĂȘtre un tech worker en Occident sur son laptop (avec lattĂ©).
Peut-ĂȘtre es-tu dans la position du founder avec exit rĂ©cent qui mâa dit :
Le truc pour les limites d'utilisation, c'est trois comptes Claude pro payants.
Mais si tâes comme moi, tu comptes tes cents sans dĂ©penser sur des folies comme un abonnement annuel Ă Midjourney pour faire trois images par annĂ©e (je mens, je lâai fait).
Sans coder ni dĂ©penser un dollar, tu peux rouler un âChatGPTâ sur ton laptop. Voici comment, vidĂ©o en bonus đ
Pourquoi rouler un LLM sur ta machine direct?
Il fait f**king frette ces temps-ci, donc je commencerai par citer Vincent Bernard, directeur R&D chez Coveo :
Blague Ă part, ça peut te manger de la RAM pas mal ça de lâair. Donc si tâes encore en train dâuser ton vieux Macbook Ă lâos, well⊠lis une des autres Ă©ditions de lâinfolettreâsont toutes bonnes.
OU procure-toi un nouveau Macbook via notre partenariat SaaSpasse x Apple*.
*dis-moi que tâas pas cliquĂ© pour vrai?
Yâa quand mĂȘme de cool avantages IMO :
Confidentialité VIP : ta data reste chez vous, zéro leak possible
sauf si tâes du genre Ă pas verrouiller ton Ă©cranMode avion-friendly : pas besoin d'Internet pour que ça roule
CoĂ»t nul : une petite victoire dans lâĂ©ternelle guerre contre les abonnements $
Rapidité : pas de latence réseau ni de files d'attente
Full contrÎle : possibilité de customiser selon tes besoins
Câest quoi Ollama?
Ollama c'est comme ton gestionnaire de modĂšles AI local. Un peu comme Spotify pour des LLMs (Large Language Models). Tu tĂ©lĂ©charges l'app, puis t'as accĂšs Ă un catalogue de modĂšles open source prĂȘts Ă rouler sur ta machine.
Quels modĂšles sont dispo?
Une sélection pas piquée des vers :
Llama 3.2 (notre fidĂšle compagnon de test)
DeepSeek-R1 (spĂ©cialisĂ© en raisonnementâquand il crash pas ton laptop)
Mistral
Phi-4
30+ autres modĂšles
Pro tip : check le nombre de paramÚtres avant d'installer. Mettons avec 8GB de RAM, tu peux en théorie rouler des modÚles jusqu'à ~7 milliards de paramÚtres. Plus le nombre de paramÚtres est élevé, plus l'inférence sera lente et la consommation de mémoire importante.
Si jâai pu le faire en trente minutes, câest sĂ»r que tu peux aussi. Lâheure de gloire des n00bs est arrivĂ©e, je crois en toi.
Full vidĂ©o coming soon. Je lâai Ă©chappĂ© cĂŽtĂ© dĂ©lĂ©gation. Mais un bon leader prend la responsabilitĂ©, you know. Vu que je suis 80% un bon leader, vous pouvez donc blĂąmer Meto Ă 20%.
Ătape 1 : Installe Ollama
Rends-toi sur Ollama et tĂ©lĂ©charge la version pour Mac (si tâes sur Mac, of course).
Ouvre le fichier téléchargé et déplace Ollama dans le dossier Applications.
Lance Ollama. LâicĂŽne devrait apparaĂźtre en haut Ă droite de ton Ă©cran.
Suis les instructions pour installer la ligne de commande via ton Terminal si demandé.

si tâas jamais ouvert ton Terminal sur Mac, ça ressemble à ça!
Ătape 2 : Installe pinokio
Va sur pinokio et télécharge la version pour Mac.
Ouvre le fichier .dmg et déplace pinokio dans le dossier Applications.
Ouvre pinokio. Si tu reçois un message de sĂ©curitĂ©, va dans PrĂ©fĂ©rences SystĂšme > SĂ©curitĂ© et ConfidentialitĂ© et autorise lâapplication.
Dans pinokio, utilise lâoutil Sentinel pour retirer pinokio de la âquarantaineâ macOS si nĂ©cessaire.
Ătape 3 : Installe Open WebUI via pinokio
Dans pinokio, cherche Open WebUI dans le marketplace de scripts.
Clique sur Download, puis sur Install. pinokio gĂ©rera automatiquement lâinstallation des dĂ©pendances.
Une fois l'installation terminĂ©e, ouvre Open WebUI via pinokio. Ăa lancera une interface similaire Ă ChatGPT dans ton navigateur, accessible via un lien localhost.
Ătape 4 : TĂ©lĂ©charge et utilise un LLM open source
Ouvre Ollama et télécharge un modÚle compatible avec ta RAM.
Exemple de commande dans le terminal pour télécharger un modÚle :
ollama run llama3.3
Une fois le modĂšle tĂ©lĂ©chargĂ©, il apparaĂźtra dans Open WebUI. Tu pourras choisir le modĂšle dans lâinterface et commencer Ă interagir avec.
Ătape 5 : Change de modĂšle dans Open WebUI
Pour ajouter un autre modĂšle, retourne sur le site dâOllama et trouve un modĂšle qui t'intĂ©resse (comme DeepSeek-R1 pour le raisonnement).
Utilise la commande suivante pour télécharger un nouveau modÚle :
ollama run deepseek-r1
Le nouveau modĂšle sera disponible dans Open WebUI, oĂč tu pourras alterner entre diffĂ©rents modĂšles dans une mĂȘme conversation.
Conseils et idées :
Les modĂšles plus lourds (plus de 7B paramĂštres) peuvent ĂȘtre lents ou causer des crashs si tu n'as pas assez de RAM.
Open WebUI permet certaines fonctions comme la recherche web, mais tu devras configurer des clés API pour des services comme Google ou DuckDuckGo.
Teste différents modÚles selon tes besoins (raisonnement, code, créativité).
Explore l'app Apollo AI sur iOS pour une expérience similaire mobile.
Félicitations ! Tu peux maintenant utiliser des LLM open source localement sur ton ordinateur sans dépendre de services cloud payants qui espionnent tes recettes de cuisine.
Ta machine roule dans le tapis? Good news! Jumelle ça Ă un minimum de coton ouatĂ©s et bas de laine et tu peux maintenant rĂ©duire ton bill dâHydro de 20%.
Thank me later đ„
â
Quelque chose à ajouter? Good. Laisse un commentaire ou réponds à ce courriel direct.
Cheers,
Frank đ
Capsule SaaSpasse x Apollo13
Comment bĂątir un SaaS sans exploser ta marge de crĂ©dit đ§š
Engager une agence ou des devs senior? Coûteux. Trouver un cofondateur technique? Chasse au trésor. Apollo13, un studio no-code / low-code, offre une troisiÚme option : builder un MVP vite fait et bien fait, sans te ruiner.
Dans cette capsule, je jase de plusieurs points avec Olivier Rousseau (VP chez Apollo13) :
âą Comment ils aident les SaaS Ă lancer leur MVP plus vite, pour moins cher
⹠Les erreurs fréquentes des premiers produits
⹠Tester un marché sans perdre des mois (et des dizaines de milliers de dollars)
âą JusquâoĂč peut aller le no-code avant dâatteindre ses limites (spoiler : plus loin que tu penses)
La job du mois : SaaSpasse chez Missive
Philippe-Antoine Lehoux et son équipe cherchent un.e dev front-end pour pousser leur produit encore plus loin.
Câest une opportunitĂ© en or de rejoindre une petite Ă©quipe qui joue dans la cour des grands.
T'es Ă lâaise avec React, TypeScript, Tailwind, t'obsĂšdes avec l'optimisation du code et t'as pas peur d'en faire plus avec moins? Le poste est pour toi.
đ° : 90-150K
đ : Remote-friendly
Regarde la capsule sur le poste et la compagnie avec le CEO juste ici.
Si tâes dĂ©jĂ convaincu.e đ
Rejoins les SaaSpals đ
Merci Ă tous nos SaaSpals. Votre support nous motive BIG TIME.
Partenaires certifiĂ©s SaaSpasse đHUGE merci Ă tous nos partenaires certifiĂ©s pour cette annĂ©e :
| Sans oublier nos partenaires produits :Check âem all out â on est dĂ©jĂ clients, et on leur envoie rĂ©guliĂšrement des clients (maintenant) satisfaits. |
Podcast
Voici le dernier épisode du pod :
Pas encore abonnĂ© au pod? Letâs go :
Okay bobye!
Comment faire ça?