Un lama et deux bozos

Ollama + pinokio = LLM gratis sur ton laptop 🩙

C’est la premiĂšre fois de ma vie qu’une dĂ©mo fonctionne du premier coup!

On venait de faire rouler Llama 3.2. Rendu à tester DeepSeek-R1, quand mi-prompt


___full laptop crash___

Coincidence? JE NE CROIS PAS, CCP!

Bref, Douville d’Apollo13 m’a appris à rouler des modùles d’AI aux milliards de paramùtres direct sur ma machine. Dans un UI trùs utilisateur-amical. Pour 0 piastre.

Bonus : ta data reste sur ton ordi. MĂȘme pas besoin d’ĂȘtre connectĂ© sur le Ternet.

TsĂ©, les abonnements Ă  ChatGPT, Claude, Perplexity, etc., s’accumulent. Et ils t’imposent souvent des limites d’utilisation. Ce qui aggrave immĂ©diatement la situation dĂ©jĂ  super Ă©prouvante d’ĂȘtre un tech worker en Occident sur son laptop (avec lattĂ©).

Peut-ĂȘtre es-tu dans la position du founder avec exit rĂ©cent qui m’a dit :

Le truc pour les limites d'utilisation, c'est trois comptes Claude pro payants.

^heu SCUSE-moi, Mister Baller

Mais si t’es comme moi, tu comptes tes cents sans dĂ©penser sur des folies comme un abonnement annuel Ă  Midjourney pour faire trois images par annĂ©e (je mens, je l’ai fait).

Sans coder ni dĂ©penser un dollar, tu peux rouler un “ChatGPT” sur ton laptop. Voici comment, vidĂ©o en bonus 👇

Pourquoi rouler un LLM sur ta machine direct?

Il fait f**king frette ces temps-ci, donc je commencerai par citer Vincent Bernard, directeur R&D chez Coveo :

Blague Ă  part, ça peut te manger de la RAM pas mal ça de l’air. Donc si t’es encore en train d’user ton vieux Macbook Ă  l’os, well
 lis une des autres Ă©ditions de l’infolettre—sont toutes bonnes.

OU procure-toi un nouveau Macbook via notre partenariat SaaSpasse x Apple*.
*dis-moi que t’as pas cliquĂ© pour vrai?

Y’a quand mĂȘme de cool avantages IMO :

  • ConfidentialitĂ© VIP : ta data reste chez vous, zĂ©ro leak possible
    sauf si t’es du genre Ă  pas verrouiller ton Ă©cran

  • Mode avion-friendly : pas besoin d'Internet pour que ça roule

  • CoĂ»t nul : une petite victoire dans l’éternelle guerre contre les abonnements $

  • RapiditĂ© : pas de latence rĂ©seau ni de files d'attente

  • Full contrĂŽle : possibilitĂ© de customiser selon tes besoins

C’est quoi Ollama?

Ollama c'est comme ton gestionnaire de modĂšles AI local. Un peu comme Spotify pour des LLMs (Large Language Models). Tu tĂ©lĂ©charges l'app, puis t'as accĂšs Ă  un catalogue de modĂšles open source prĂȘts Ă  rouler sur ta machine.

Quels modĂšles sont dispo?

Une sélection pas piquée des vers :

  • Llama 3.2 (notre fidĂšle compagnon de test)

  • DeepSeek-R1 (spĂ©cialisĂ© en raisonnement—quand il crash pas ton laptop)

  • Mistral

  • Phi-4

  • 30+ autres modĂšles

Pro tip : check le nombre de paramÚtres avant d'installer. Mettons avec 8GB de RAM, tu peux en théorie rouler des modÚles jusqu'à ~7 milliards de paramÚtres. Plus le nombre de paramÚtres est élevé, plus l'inférence sera lente et la consommation de mémoire importante.

Comment faire ça?

Si j’ai pu le faire en trente minutes, c’est sĂ»r que tu peux aussi. L’heure de gloire des n00bs est arrivĂ©e, je crois en toi.

Full vidĂ©o coming soon. Je l’ai Ă©chappĂ© cĂŽtĂ© dĂ©lĂ©gation. Mais un bon leader prend la responsabilitĂ©, you know. Vu que je suis 80% un bon leader, vous pouvez donc blĂąmer Meto Ă  20%.

Étape 1 : Installe Ollama

  1. Rends-toi sur Ollama et tĂ©lĂ©charge la version pour Mac (si t’es sur Mac, of course).

  2. Ouvre le fichier téléchargé et déplace Ollama dans le dossier Applications.

  3. Lance Ollama. L’icĂŽne devrait apparaĂźtre en haut Ă  droite de ton Ă©cran.

  4. Suis les instructions pour installer la ligne de commande via ton Terminal si demandé.

si t’as jamais ouvert ton Terminal sur Mac, ça ressemble à ça!

Étape 2 : Installe pinokio

  1. Va sur pinokio et télécharge la version pour Mac.

  2. Ouvre le fichier .dmg et déplace pinokio dans le dossier Applications.

  3. Ouvre pinokio. Si tu reçois un message de sĂ©curitĂ©, va dans PrĂ©fĂ©rences SystĂšme > SĂ©curitĂ© et ConfidentialitĂ© et autorise l’application.

  4. Dans pinokio, utilise l’outil Sentinel pour retirer pinokio de la “quarantaine” macOS si nĂ©cessaire.

Étape 3 : Installe Open WebUI via pinokio

  1. Dans pinokio, cherche Open WebUI dans le marketplace de scripts.

  2. Clique sur Download, puis sur Install. pinokio gĂ©rera automatiquement l’installation des dĂ©pendances.

  3. Une fois l'installation terminĂ©e, ouvre Open WebUI via pinokio. Ça lancera une interface similaire Ă  ChatGPT dans ton navigateur, accessible via un lien localhost.

Étape 4 : TĂ©lĂ©charge et utilise un LLM open source

  1. Ouvre Ollama et télécharge un modÚle compatible avec ta RAM.

  2. Exemple de commande dans le terminal pour télécharger un modÚle :

ollama run llama3.3
  1. Une fois le modĂšle tĂ©lĂ©chargĂ©, il apparaĂźtra dans Open WebUI. Tu pourras choisir le modĂšle dans l’interface et commencer Ă  interagir avec.

Étape 5 : Change de modùle dans Open WebUI

  1. Pour ajouter un autre modĂšle, retourne sur le site d’Ollama et trouve un modĂšle qui t'intĂ©resse (comme DeepSeek-R1 pour le raisonnement).

  2. Utilise la commande suivante pour télécharger un nouveau modÚle :

ollama run deepseek-r1
  1. Le nouveau modĂšle sera disponible dans Open WebUI, oĂč tu pourras alterner entre diffĂ©rents modĂšles dans une mĂȘme conversation.

Conseils et idées :

  • Les modĂšles plus lourds (plus de 7B paramĂštres) peuvent ĂȘtre lents ou causer des crashs si tu n'as pas assez de RAM.

  • Open WebUI permet certaines fonctions comme la recherche web, mais tu devras configurer des clĂ©s API pour des services comme Google ou DuckDuckGo.

  • Teste diffĂ©rents modĂšles selon tes besoins (raisonnement, code, crĂ©ativitĂ©).

  • Explore l'app Apollo AI sur iOS pour une expĂ©rience similaire mobile.

Félicitations ! Tu peux maintenant utiliser des LLM open source localement sur ton ordinateur sans dépendre de services cloud payants qui espionnent tes recettes de cuisine.

Ta machine roule dans le tapis? Good news! Jumelle ça Ă  un minimum de coton ouatĂ©s et bas de laine et tu peux maintenant rĂ©duire ton bill d’Hydro de 20%.

Thank me later đŸ”„

—

Quelque chose à ajouter? Good. Laisse un commentaire ou réponds à ce courriel direct.

Cheers,

Frank đŸ’œ

Capsule SaaSpasse x Apollo13

Comment bĂątir un SaaS sans exploser ta marge de crĂ©dit đŸ§š

Engager une agence ou des devs senior? Coûteux. Trouver un cofondateur technique? Chasse au trésor. Apollo13, un studio no-code / low-code, offre une troisiÚme option : builder un MVP vite fait et bien fait, sans te ruiner.

Dans cette capsule, je jase de plusieurs points avec Olivier Rousseau (VP chez Apollo13) :
‱ Comment ils aident les SaaS à lancer leur MVP plus vite, pour moins cher
‱ Les erreurs frĂ©quentes des premiers produits
‱ Tester un marchĂ© sans perdre des mois (et des dizaines de milliers de dollars)
‱ Jusqu’oĂč peut aller le no-code avant d’atteindre ses limites (spoiler : plus loin que tu penses)

La job du mois : SaaSpasse chez Missive

Philippe-Antoine Lehoux et son équipe cherchent un.e dev front-end pour pousser leur produit encore plus loin.

C’est une opportunitĂ© en or de rejoindre une petite Ă©quipe qui joue dans la cour des grands.

T'es à l’aise avec React, TypeScript, Tailwind, t'obsùdes avec l'optimisation du code et t'as pas peur d'en faire plus avec moins? Le poste est pour toi.

💰 : 90-150K
🏠 : Remote-friendly

Regarde la capsule sur le poste et la compagnie avec le CEO juste ici.

Si t’es dĂ©jĂ  convaincu.e 👇

Rejoins les SaaSpals 👇

Merci Ă  tous nos SaaSpals. Votre support nous motive BIG TIME.

Partenaires certifiĂ©s SaaSpasse 💜

HUGE merci à tous nos partenaires certifiés pour cette année :

Sans oublier nos partenaires produits :

Check ‘em all out — on est dĂ©jĂ  clients, et on leur envoie rĂ©guliĂšrement des clients (maintenant) satisfaits.

Podcast

Voici le dernier épisode du pod :

Pas encore abonnĂ© au pod? Let’s go :

Okay bobye!

Reply

or to participate.