L’IA est en train de prendre sa place dans les logiciels que nous utilisons tous les jours. Après plusieurs mois de test, Google, Adobe et Microsoft ont annoncé la fin de la période d’essai gratuite. Pour continuer à profiter de leur intelligence artificielle respective, il va falloir payer.
Je me demande si l'IA ne risque pas d'être l'outil qui permettra aux logiciels propriétaires de distancer définitivement les outils open source. Les GAFAM ont de gros serveurs et piquent des données où bon leur semble. De l'autre coté, les équivalents open source n'ont pas accès à ces serveurs et surtout ont accès à beaucoup beaucoup moins de données.
@tototatatititutu@Ziggurat Pour les serveurs, c'est vrai que c'est compliqué, même si ça peut être une jolie manière de contribuer (coucou, FoldingAtHome). Pour la data, là aussi et là surtout, l'enjeu est surtout de s'organiser. Wikipedia fut un temps, et encore plus OpenStreetMap, ont su démontrer avec brio combien la donnée citoyenne/collective/participative/... était possible.
Si on combine ces deux aspects ET qu'on arrive à les appliquer de manière organisée à un vrai sujet qui compte...
Il existe déjà des projets open-source ( ici par exemple).
L'idée c'est que si tu arrives à récupérer les poids de ton réseau sur ta machine tu peux "affiner" ton réseau en l'entraînant sur des données open-source pour obtenir ton propre modèle avec un coût de calcul bcp plus faible.
Il existe aussi des méthodes pour faire tourner tes modèles en local avec une légère baisse de performance.
J'ai entendu dire que Nextcloud pourrait (ou peut déjà) inclure ce genre de fonctionnalités par exemple.
On peut imaginer que les PCs du futur incluront peut-être des circuits spécialisés pour l'inférence, ce qui permettra de faire tourner ces modèles en local et donc des modèles open-source.