L'IA n'est pas encore pleinement comprise, mais elle est déjà largement autorisée.
Elle est autorisée à vous aider à trader, à gérer des fonds, à exécuter des stratégies, mais dans la plupart des systèmes, le coût d'une erreur est presque nul — une erreur, et c'est simplement une « re-génération ».
D'un point de vue technique, c'est en réalité très dangereux. Parce que lorsqu'un système n'a pas à assumer la responsabilité des erreurs, ce que vous obtenez n'est toujours que du « qui a l'air raisonnable ».
C'est aussi pourquoi je préfère des approches comme @miranetwork. Ce n'est pas en empilant des modèles plus intelligents, mais en intégrant d'abord la « vérification » et la « responsabilité » dans la couche fondamentale du système : si c'est faux, cela sera détecté, et on ne pourra pas tromper le système sans en payer le prix.
Lorsque l'IA commence à prendre des décisions à la place des humains, la confiance n'est pas une émotion, c'est un mécanisme.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Nous entrons dans une phase très délicate :
L'IA n'est pas encore pleinement comprise, mais elle est déjà largement autorisée.
Elle est autorisée à vous aider à trader, à gérer des fonds, à exécuter des stratégies,
mais dans la plupart des systèmes, le coût d'une erreur est presque nul — une erreur, et c'est simplement une « re-génération ».
D'un point de vue technique, c'est en réalité très dangereux.
Parce que lorsqu'un système n'a pas à assumer la responsabilité des erreurs, ce que vous obtenez n'est toujours que du « qui a l'air raisonnable ».
C'est aussi pourquoi je préfère des approches comme @miranetwork.
Ce n'est pas en empilant des modèles plus intelligents, mais en intégrant d'abord la « vérification » et la « responsabilité » dans la couche fondamentale du système :
si c'est faux, cela sera détecté, et on ne pourra pas tromper le système sans en payer le prix.
Lorsque l'IA commence à prendre des décisions à la place des humains,
la confiance n'est pas une émotion, c'est un mécanisme.