Laravel n'est plus seulement "un framework PHP de toujours"
En 2026, Laravel reste l'un des paris les plus sensés pour construire des applications sérieuses. Le récit de "PHP est vieux" n'a pas passé l'épreuve du temps: la productivité de Laravel, son écosystème et sa maturité le placent toujours devant beaucoup d'alternatives plus modernes pour des projets B2B et SaaS réels.
Mais la question que tout le monde nous pose à AndorraDev ces derniers mois est différente: comment intègre-t-on de l'IA générative dans une app Laravel sans la transformer en Frankenstein de microservices? Voici notre stack réel, celui que nous utilisons en production.
L'erreur la plus courante: traiter l'IA comme une API de plus
Le piège habituel est d'écrire un contrôleur qui fait Http::post('https://api.openai.com/...') et de retourner le JSON au frontend. Ça marche en local. En production ça casse au premier passage: timeouts, réponses de 30 secondes qui font tomber PHP-FPM, coûts incontrôlés, sans traçabilité.
Une intégration sérieuse d'IA dans Laravel a quatre couches qu'il vaut mieux séparer dès le premier jour:
- Couche client du modèle (OpenAI, Anthropic, Gemini)
- Couche de queue pour les travaux longs (queues)
- Couche de streaming pour les réponses en temps réel (SSE ou websockets avec Reverb)
- Couche de logging, observabilité et guardrails
Le stack que nous utilisons en production
Voici ce que nous avons monté chez nos clients réels et sur Andie, notre propre chatbot:
- openai-php/client et anthropic-sdk-php: clients officiels/matures pour appeler les modèles. Stables, bien maintenus, supportent le streaming
- Laravel Queues avec Redis ou Horizon: toute requête qui peut prendre plus de 2 secondes part en queue. Jamais sur la requête synchrone
- Laravel Reverb (reverb.laravel.com): pour le streaming de réponses en temps réel vers le frontend (Livewire, Vue, n'importe quoi). Arrivé avec Laravel 11, il simplifie énormément ce qu'on faisait avant avec Pusher
- pgvector dans PostgreSQL (github.com/pgvector/pgvector): vector store intégré dans la base de données. Si vous utilisez déjà PostgreSQL, c'est le plus sensé. Oubliez Pinecone si votre projet n'est pas absolument massif
- Laravel Pulse (pulse.laravel.com): observabilité. Mesure latence, erreurs et coût par endpoint. Critique quand vous mettez de l'IA: si vous ne mesurez pas, vous ne contrôlez pas la dépense
- Laravel Cache + cache d'embeddings: vous économisez 30-50% du coût en cachant les embeddings de queries fréquentes
Pattern typique: RAG avec Livewire
Pour un assistant avec connaissance sur votre activité, voici le flux:
- Indexer (offline): une commande artisan parse votre contenu, le découpe en chunks, calcule les embeddings avec
text-embedding-3-smallet les sauve dans pgvector - Requête de l'utilisateur (synchrone): l'utilisateur écrit dans un composant Livewire qui déclenche un événement vers le serveur
- Recherche sémantique: le serveur calcule l'embedding de la question et cherche les 5-10 chunks les plus similaires dans pgvector
- Appel au modèle: monte un prompt avec ces chunks comme contexte, appelle GPT ou Claude, et écrit la réponse à l'utilisateur en streaming
- Logging: chaque interaction est enregistrée pour améliorer le bot, détecter les hallucinations et contrôler le coût
Le beau: tout dans le même Laravel monolithique. Sans microservices séparés. Sans Python en production si vous n'en avez pas besoin. Votre app fiscale, comptable, ecommerce ou de réservations, avec IA, sans la réécrire.
Avant de vous lancer dans des architectures compliquées, essayez cette heuristique: si votre app utilise déjà Laravel et que votre usage d'IA va être de 1.000 à 100.000 requêtes par mois, tout tient dans le monolithe Laravel + Redis + Postgres. Ne séparez les services que quand vous mesurez que quelque chose de concret le demande.
Pourquoi Laravel pour l'IA et pas Next.js pur
Il y a trois raisons techniques qui font que Laravel cadre très bien avec les projets B2B avec IA:
- Queues matures de série: l'intégration avec Redis et Horizon est soignée au millimètre. Dans le monde Node, vous devez assembler BullMQ à la main
- Eloquent + pgvector: faire un
Document::semanticSearch($query)avec un Scope custom est trivial. Personne ne vous force à vous battre avec un ORM - Tinker et artisan: exécuter des prompts de test contre la production réelle depuis le terminal vaut de l'or quand vous déboguez des hallucinations
Next.js continue de gagner pour les frontends produit et les applications AI-first très interactives. Mais pour un dashboard d'entreprise avec des flux administratifs, des intégrations bancaires, la gestion de commandes et un assistant IA qui répond sur tout cela, Laravel reste le pari le plus efficace.
Si votre équipe connaît déjà Laravel et que vous hésitez à sauter sur Python pour l'IA, ne sautez pas. Le goulot d'étranglement n'est jamais le langage, c'est le design du prompt et la qualité de votre base de connaissances. Laravel suffit largement pour appeler des APIs, gérer des queues et servir des réponses en streaming.
On en parle en direct: ConAnd 2026
Le samedi 16 mai 2026 nous serons à ConAnd Spring 2026, la quatrième rencontre de la communauté tech andorrane, organisée par GDG Andorra. C'est l'événement de référence de l'écosystème numérique de la Principauté, avec des tracks d'IA, backend, frontend, cybersécurité, cloud et entrepreneuriat.
Lieu: Centre Historique d'Andorra la Vella, 4 Carrer Mossèn Cinto Verdaguer, AD500. De 9h30 à 17h00 heure locale. Sessions en catalan, espagnol et anglais, avec option présentielle et streaming.
Eduardo Lázaro (d'AndorraDev) participe en tant qu'intervenant, aux côtés de voix comme Antonio Leiva (DevExpert.io), Luis Peris (Axium Lab), Alan Buscaglia (Prowler), Jordi Ventayol (Build38) et David Julian (Alpine Security). Si cela vous intéresse de monter des produits avec IA, de la cybersécurité ou n'importe quel vertical technique avec une vision locale, on s'y voit.
Inscrivez-vous sur la page officielle de l'événement. C'est gratuit et ça se remplit vite.
Conclusion
Laravel reste en 2026 l'une des meilleures options pour construire des produits sérieux, y compris des apps avec IA. La clé n'est pas le langage mais l'architecture: séparer les couches, utiliser des queues pour tout ce qui est lent, cacher les embeddings, mesurer le coût par endpoint et concevoir des prompts qui tiennent dans le temps.
Si vous avez un projet B2B en tête et que vous hésitez à savoir si Laravel cadre avec votre vision d'IA, parlons-en. Et si vous êtes en Andorre le 16 mai, passez à ConAnd et nous en discutons en personne.