A IA ainda não é totalmente compreendida, mas já está a ser largamente autorizada.
Ela é permitida ajudar-te a negociar, a gerir fundos, a executar estratégias, mas na maioria dos sistemas, o custo de erro é quase zero — se disseres algo errado, é apenas uma “recriação”.
Do ponto de vista técnico, isto é realmente perigoso. Porque quando um sistema não é responsável pelos seus erros, o que obténs é sempre apenas uma “aparência de razoabilidade”.
Por isso, tenho mais esperança em caminhos como @miranetwork. Não se trata de construir modelos mais inteligentes, mas de incorporar “verificação” e “responsabilidade” na base do sistema: Se estiver errado, é detectado; se enganar, tem de pagar um custo.
Quando a IA começa a tomar decisões por humanos, a confiança não é uma questão de emoções, mas de mecanismos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Estamos a entrar numa fase muito delicada:
A IA ainda não é totalmente compreendida, mas já está a ser largamente autorizada.
Ela é permitida ajudar-te a negociar, a gerir fundos, a executar estratégias,
mas na maioria dos sistemas, o custo de erro é quase zero — se disseres algo errado, é apenas uma “recriação”.
Do ponto de vista técnico, isto é realmente perigoso.
Porque quando um sistema não é responsável pelos seus erros, o que obténs é sempre apenas uma “aparência de razoabilidade”.
Por isso, tenho mais esperança em caminhos como @miranetwork.
Não se trata de construir modelos mais inteligentes, mas de incorporar “verificação” e “responsabilidade” na base do sistema:
Se estiver errado, é detectado; se enganar, tem de pagar um custo.
Quando a IA começa a tomar decisões por humanos,
a confiança não é uma questão de emoções, mas de mecanismos.