
Venice a récemment dépassé un million d'utilisateurs - une étape impressionnante pour une startup construisant une IA privée et non censurée depuis le début. Dans cette interview avec Lorenzo Fränkel, responsable du contenu et des communications, nous explorons comment Venice remet en question le statu quo basé sur la surveillance des plateformes d'IA traditionnelles, ce que signifie réellement « intelligence sans permission » et comment l'équipe façonne un avenir où les utilisateurs n'ont pas besoin d'échanger la vie privée contre la performance.
Pouvez-vous partager votre parcours dans le Web3 ?
Je suis entré dans le Web3 en 2017. La première crypto que j'ai jamais achetée était de l'Ethereum sur Coinbase, c'est pourquoi je suis assez excité d'aller à l'ECC. C'était mon premier point d'entrée, mais je pense que la plupart des gens ont besoin de deux incitations pour vraiment comprendre quelque chose. Pour moi, la deuxième était en 2019, lorsque j'ai fait mon premier échange sur Uniswap. C'est à ce moment-là que tout a vraiment cliqué, réalisant que nous construisons des finances sans permission, décentralisées et en retirant le pouvoir des intermédiaires. Ce moment a rendu la mission claire pour moi.
Depuis, j'ai travaillé sur plusieurs projets, y compris Immutable dans l'espace de jeu Web3. Puis en mars ou avril 2024, j'ai vu un tweet d'Erik Voorhees à la recherche de développeurs pour un projet secret. J'ai répondu en disant que je n'étais pas développeur, mais que je travaillais dans les communications. Il m'a en fait envoyé un message direct, ce que j'ai d'abord pensé être une arnaque parce que c'est Erik Voorhees, l'un des plus grands noms de la crypto. Mais c'était vraiment lui. J'ai eu un appel avec lui et notre PDG, Teana, et j'ai rejoint l'équipe en avril.
À l'époque, nous n'étions que 6 à 7 personnes. Maintenant, nous sommes plus de 25, et nous venons de dépasser 1 million d'utilisateurs qui utilisent Venice pour une IA privée et non censurée. Je me suis vraiment connecté à la mission. Je suis un utilisateur intensif de l'IA depuis des années, mais je me suis toujours senti mal à l'aise par rapport à la quantité d'informations que nous partageons avec ces outils. L'objectif de Venice de construire une IA privée et non censurée a vraiment résonné en moi.
Pourquoi y a-t-il un besoin d'IA privée et non censurée ? Qu'est-ce qui la rend différente des autres plateformes ?
Je pense que nous avons déjà fait une grosse erreur avec les réseaux sociaux, et nous sommes sur le point de la répéter avec l'IA, sauf que les enjeux sont encore plus élevés. La quantité de données personnelles et intimes que les gens partagent avec les outils d'IA est énorme. Les gens utilisent l'IA comme des compagnons, des coachs de vie ou des thérapeutes, et ils ne partagent pas seulement avec l'outil, ils partagent avec OpenAI, Google, Anthropic, etc.
Nous avons vu comment les entreprises exploitent les données, et ce n'est pas seulement à ce sujet. Détenir de telles données les rend vulnérables au piratage, à l'accès gouvernemental, et plus encore. La situation était déjà mauvaise avant l'IA, avec des scandales comme Cambridge Analytica. Mais avec l'IA, les gens offrent ces données. Nous voyons Venice comme l'antidote à cette prochaine phase de surveillance.
Comment Venice garantit-elle que les prompts et les réponses des utilisateurs restent privés ? Comment l'inférence est-elle gérée ?
Nous avons construit l'architecture de la vie privée de Venice depuis le début. Tous les prompts des utilisateurs sont enregistrés localement dans le navigateur. Le prompt est ensuite envoyé à notre serveur proxy, qui agit comme un intermédiaire pour obscurcir l'identité de l'utilisateur. De là, il est envoyé à notre infrastructure GPU décentralisée, où le modèle le traite.
La réponse revient par le proxy et est diffusée à l'utilisateur. Nous travaillons sur une preuve indépendante et tierce afin que les utilisateurs puissent vérifier que leurs prompts sont uniquement traités de cette manière. En ce moment, vous devez un peu nous faire confiance, mais nous privilégions la transparence et la vérification.
Nous donnons également aux utilisateurs le contrôle sur les télémetries de base comme les connexions. Vous pouvez même les désactiver. Bien sûr, les utilisateurs veulent la vie privée, mais ils s'attendent également à une application qui fonctionne sans accroc, donc nous collectons des données minimales strictement pour améliorer l'expérience.
Que signifie « intelligence sans permission » et comment Venice s'aligne-t-elle sur cette philosophie ?
Notre principe fondamental est la vie privée et l'accès non censuré. Cependant, l'absence de permission va encore plus loin - cela signifie qu'aucune approbation n'est nécessaire pour utiliser la technologie. Récemment, OpenAI a annoncé qu'il pourrait commencer à exiger une pièce d'identité pour l'accès à l'API. C'est le type de contrôle que nous opposons.
Avec Venice, vous n'avez même pas besoin de créer un compte pour commencer à l'utiliser. Nous croyons que cette technologie puissante devrait être accessible à tous sans restrictions. Nous ne censurons pas non plus les résultats. Je ne veux pas qu'une IA dise : « Désolé, je ne peux pas vous aider avec ça. » Je veux une intelligence brute, comme elle était censée l'être.
Nous avons collaboré avec Dolphin, qui se spécialise dans les modèles non censurés, pour créer Venice Uncensored. Il a un taux de refus de moins de 2 % basé sur nos critères de censure, beaucoup plus bas que d'autres modèles comme ChatGPT, Gemini ou Llama. Nous ne croyons pas que l'IA ou Internet devraient être soumis à des permissions.
Comment catégorisez-vous les modèles que vous proposez ? Quels critères définissent chaque catégorie ?
Chaque modèle a un cas d'utilisation différent. Venice Uncensored est notre modèle polyvalent par défaut. Il est polyvalent, créatif et accessible, même pour les utilisateurs anonymes. Ensuite, il y a Venice Small, super rapide et idéal pour une utilisation mobile. Venice Medium est doté de vision et excellent pour analyser des images, même médicales, de manière sécurisée.
Venice Large est le meilleur pour le raisonnement complexe et la gestion de gros fichiers comme des PDF ou des transcriptions. Il a une fenêtre de contexte plus grande. Ensuite, nous avons Venice Reasoning, qui est le meilleur pour les problèmes multicouches qui nécessitent une réflexion plus profonde.
Nous testons également les modèles en interne et suivons les discussions sur les réseaux sociaux. Nous essayons de trouver un équilibre entre l'hébergement des meilleurs modèles open-source et l'offre d'une expérience soigneusement sélectionnée.
Avez-vous constaté des améliorations de la latence et de l'expérience utilisateur après avoir rationalisé votre gamme de modèles ?
Oui, définitivement. En retirant des modèles sous-utilisés comme DeepSeek, qui prenaient beaucoup de capacité d'inférence, nous avons amélioré la vitesse globale. Venice Uncensored, un modèle Mistral 24b affiné, sert maintenant une base d'utilisateurs plus large et offre des performances beaucoup plus rapides.
En plus de Dolphin, avez-vous formé des partenariats stratégiques avec des secteurs d'entreprise comme la finance ou la santé ?
Nous explorons activement ces partenariats. La vie privée est particulièrement pertinente dans des secteurs comme la santé et le droit. Nous avons commencé des discussions avec des organisations, y compris des universités comme Oxford. Ce sont des conversations préliminaires, mais nous y voyons une véritable opportunité.
En tant que plateforme d'IA décentralisée axée sur la vie privée, comment prévoyez-vous de rivaliser avec de grands acteurs comme OpenAI et Google ?
Nous sommes des maximalistes de l'open-source. Même si les modèles open-source peuvent être un peu en retard par rapport à ceux en closed-source, nous croyons au pouvoir de la communauté open-source. C'est la même éthique qu'Ethereum : développement décentralisé et collaboratif.
Malgré notre petite équipe, nous servons plus d'un million d'utilisateurs. Cela nous donne l'agilité de pivoter rapidement et de fournir une réelle valeur. C'est notre approche frugale et agile contre les géants de l'IA.
Quelle est la prochaine étape sur la feuille de route de Venice ? Explorez-vous des choses comme FHE, le déploiement de modèles locaux ou des API pour des agents ?
Deux choses principales : Premièrement, notre application mobile est actuellement en phase de test bêta et sera lancée bientôt ; elle a été très demandée. Deuxièmement, nous venons de lancer un fonds d'incitation de 27 millions de dollars pour les projets utilisant notre API privée et non censurée. Nous avons déjà reçu plus de 100 candidatures et commencerons bientôt à accueillir.
Nous avons également quelques autres développements en cours dont je ne peux pas encore parler. Cependant, améliorer l'expérience de l'application et étendre notre écosystème sont des priorités absolues.
L'article Inside the AI Rebellion Venice Is Building a Private Future est paru en premier sur Metaverse Post.



