A IA ainda não é totalmente compreendida, mas já está a ser largamente autorizada.
Ela é permitida ajudar-te a negociar, a gerir fundos, a executar estratégias, mas na maioria dos sistemas, o custo de erro é quase zero — se disseres algo errado, é apenas uma “recriação”.
Do ponto de vista técnico, isto é realmente perigoso. Porque quando um sistema não é responsável pelos seus erros, o que obténs é sempre apenas uma “aparência de razoabilidade”.
Por isso, tenho mais esperança em caminhos como @miranetwork. Não se trata de construir modelos mais inteligentes, mas de incorporar “verificação” e “responsabilidade” na base do sistema: Se estiver errado, é detectado; se enganar, tem de pagar um custo.
Quando a IA começa a tomar decisões por humanos, a confiança não é uma questão de emoções, mas de mecanismos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Estamos a entrar numa fase muito delicada:
A IA ainda não é totalmente compreendida, mas já está a ser largamente autorizada.
Ela é permitida ajudar-te a negociar, a gerir fundos, a executar estratégias,
mas na maioria dos sistemas, o custo de erro é quase zero — se disseres algo errado, é apenas uma “recriação”.
Do ponto de vista técnico, isto é realmente perigoso.
Porque quando um sistema não é responsável pelos seus erros, o que obténs é sempre apenas uma “aparência de razoabilidade”.
Por isso, tenho mais esperança em caminhos como @miranetwork.
Não se trata de construir modelos mais inteligentes, mas de incorporar “verificação” e “responsabilidade” na base do sistema:
Se estiver errado, é detectado; se enganar, tem de pagar um custo.
Quando a IA começa a tomar decisões por humanos,
a confiança não é uma questão de emoções, mas de mecanismos.