Le premier outil collaboratif de Current AI 

Aujourd’hui, la plupart des systèmes d'IA sont développés derrière des portes closes, à partir de langues occidentales. La nouvelle frontière est l'IA incarnée : lunettes, robots, crayons, haut-parleurs... Ces produits qui font leur entrée dans nos foyers et dans nos corps doivent être ouverts, personnalisés et multilingues.

Le premier prototype de Current AI - construit avec Bhashini, une initiative soutenue par le gouvernement indien, et dévoilé lors du Sommet pour l’action sur l’IA à New Delhi le 20 février 2026 - est une réponse directe à ce défi.

Ce que fait l'appareil

Cet appareil portable peut décrire son environnement par texte ou audio dans les 22 langues officielles de l'Inde. Il est entièrement autonome, exécute des modèles d'IA localement et ne nécessite aucune connexion Internet.

Il est équipé d'une caméra, d'un écran, d'un microphone et d'un haut-parleur, et exécute simultanément trois modèles d'IA : un modèle de vision, le modèle de reconnaissance vocale et de traduction automatique de Bhashini, et un modèle de synthèse vocale, offrant des possibilités infinies à celles et ceux qui souhaitent créer leurs propres appareils IA. 

Afin de permettre à tous de l'examiner, de le modifier et de construire leurs propres applications, cet appareil a été conçu à l'aide de logiciels et de matériel open source, et ses instructions de développement complètes ainsi que son code ont déjà été rendus publics. Nous souhaitons rendre hommage à la communauté open source qui a été une grande source d'inspiration pour cette création, en particulier le projet Hear the world de Marco Gerber.

Specifications

  • 64 TFLOP of AI compute power
  • 8GB of RAM
  • 128GB of storage
  • Battery: 15Wh
    • Estimated 1-3 Hours of runtime
  • Camera: 8MP, wide-angle
  • Vibration motor for Haptic Feedback
  • Dual-Band Wifi for software updates and development
    • Otherwise fully-operational offline
  • 2.8” Color TFT display

Model support out of the box
Vision
  • Ministral-3
  • Qwen3-vl
  • moondream

Speech recognition
  • Vosk
  • Bhashini 

Neural Model Translation
  • Bhashini
Text to Speech
  • Piper
  • Bhashini

Spécifications techniques

    • Puissance de calcul IA de 64 TFLOP
    • 8 Go de RAM
    • 128 Go de stockage
    • Batterie : 15 Wh
      • Autonomie estimée : 1 à 3 heures
    • Appareil photo : 8 Mpx, grand angle
    • Moteur à vibration pour retour haptique
    • Wi-Fi double bande pour les mises à jour logicielles et le développement
      • Sinon, entièrement opérationnel hors ligne
    • Écran TFT couleur 2,8 pouces
    • Modèles pris en charge immédiatement :
      • Vision :
        • Ministral-3
        • Qwen3-vl
        • moondream
      • Reconnaissance vocale :
        • Vosk
        • Bhashini 
      • Traduction de modèles neuronaux :
        • Bhashini
      • Synthèse vocale :
        • Piper
        • Bhashini

Une vision différente de l'IA

« Notre objectif est de développer une vision collaborative, collective et mondiale de l'IA, qui ne soit pas contrôlée par un pays ou une entreprise », a déclaré Ayah Bdeir, Directrice générale de Current AI. « Pour ce faire, nous allons établir des partenariats avec des organisations et des créateurs partageant la même mission afin de rassembler l'ensemble de la pile technique d'une IA d'intérêt général, du matériel aux applications, et de catalyser un mouvement en faveur d'une IA d'intérêt général résiliente. »

Prochaines étapes

Current AI et Bhashini lancent également un défi mondial d'innovation afin que les communautés imaginent ce que pourrait devenir cet appareil et explorent comment une IA ouverte et incarnée peut permettre des futurs différents, façonnés par les besoins locaux, les contextes culturels et l'imagination individuelle, avec une confidentialité et un contrôle total.