Les cas d'usage IA les plus courants en no-code
**Génération de contenu** - Rédaction automatique de descriptions produit - Génération de rapports à partir de données - Résumés automatiques de documents
**Analyse et classification** - Catégorisation automatique de tickets support - Analyse de sentiment sur des feedbacks clients - Extraction d'informations structurées depuis des emails
**Chatbots et assistants** - Assistant IA contextuel à vos données (RAG) - Bot de support client avec escalade vers humain - Onboarding guidé par IA
**Recommandations** - Suggestions personnalisées basées sur l'historique - "Vous devriez aussi regarder..." - Alertes intelligentes sur des patterns dans les données
Architecture : comment connecter OpenAI à WeWeb
Pattern recommandé : **WeWeb → Supabase Edge Function → OpenAI API**
Pourquoi ne pas appeler OpenAI directement depuis WeWeb ? Parce que l'appel API direct depuis le frontend exposerait votre clé API OpenAI à tous les utilisateurs.
**Étape 1 — Créer une Edge Function Supabase**
```typescript
// supabase/functions/ai-generate/index.ts
const response = await fetch('https://api.openai.com/v1/chat/completions', {
method: 'POST',
headers: { 'Authorization': `Bearer ${Deno.env.get('OPENAI_API_KEY')}` },
body: JSON.stringify({
model: 'gpt-4o',
messages: [{ role: 'user', content: prompt }]
})
});
```
**Étape 2 — Appeler la fonction depuis WeWeb** Dans WeWeb, créez une Action qui appelle l'endpoint de votre Edge Function via une requête HTTP POST, en passant le prompt en body.
**Étape 3 — Afficher le résultat** Stockez la réponse dans une variable WeWeb et bindez-la à un composant Text.
Intégration IA dans FlutterFlow
Pour les applications mobiles FlutterFlow, la même architecture s'applique : l'app mobile appelle une Supabase Edge Function (ou une API Xano) qui appelle OpenAI.
**Pattern FlutterFlow :** 1. Créez un Custom Action dans FlutterFlow qui fait un appel HTTP POST à votre backend 2. Passez le prompt et les paramètres nécessaires 3. Parsez la réponse JSON et stockez dans une page/app state variable 4. Mettez à jour l'UI avec le résultat
FlutterFlow supporte nativement les appels HTTP — pas besoin de code custom pour l'intégration de base. Vous aurez besoin d'un Custom Action uniquement pour des cas complexes (streaming de réponse, gestion d'état avancée).
RAG : l'IA contextuelle à vos données
Le RAG (Retrieval-Augmented Generation) permet de créer un chatbot qui répond en se basant sur VOS données — pas sur la connaissance générale de GPT.
Exemple : un chatbot support qui connaît votre documentation, vos FAQs, et l'historique du client.
**Stack no-code pour le RAG :** - **Stockage des embeddings** : Supabase avec l'extension pgvector - **Génération des embeddings** : OpenAI text-embedding-3-small (20 fois moins cher que les gros modèles) - **Recherche sémantique** : Supabase Edge Function avec `match_documents` - **Génération de la réponse** : GPT-4o avec le contexte récupéré
Cette architecture peut être mise en place en 2-3 jours avec WeWeb ou FlutterFlow comme frontend.
Coûts IA : ce qu'il faut savoir
Estimation des coûts OpenAI pour une app avec 1 000 utilisateurs actifs/mois :
| Usage | Modèle | Coût estimé/mois | |-------|--------|------------------| | Génération de contenu (100 appels/jour) | GPT-4o | 15-30 € | | Chatbot support (500 conversations/jour) | GPT-4o-mini | 5-15 € | | RAG avec embeddings | text-embedding-3-small | 2-5 € | | Analyse de documents | GPT-4o | 20-50 € |
Les coûts IA sont généralement marginaux pour les applications B2B avec de la valeur métier. Le ROI s'exprime en temps économisé pour vos utilisateurs, pas en volume de tokens.
Conseils pour maîtriser les coûts : utilisez GPT-4o-mini pour les tâches simples (classification, résumés courts), GPT-4o uniquement pour les tâches complexes. Mettez en cache les réponses pour les prompts identiques.
Les limites à connaître
**Latence** : un appel GPT-4o prend 2-8 secondes. Pour les interfaces interactives, implémentez un streaming ou affichez un indicateur de chargement explicite. Les utilisateurs acceptent l'attente si l'interface communique clairement que l'IA travaille.
**Déterminisme** : l'IA ne produit pas le même résultat à chaque appel. Pour les cas d'usage où la cohérence est importante (extraction de données structurées, classification), utilisez des instructions précises et une température basse (0.1-0.3).
**RGPD** : les données envoyées à OpenAI via l'API ne sont pas utilisées pour l'entraînement (contrairement à l'interface ChatGPT). Mais vérifiez les clauses de vos contrats clients — certains secteurs (santé, finance) ont des restrictions sur le traitement de données personnelles par des tiers.