Une grande plateforme de médias sociaux vient de lancer une fonctionnalité permettant aux utilisateurs de manipuler numériquement des photos d'autres personnes—créant essentiellement des images deepfake nues sans consentement. La technologie est déjà illégale dans de nombreuses juridictions, pourtant la plateforme continue de fonctionner sans conséquences significatives. L'écart entre ce qui est techniquement possible et ce qui est légalement autorisé ne cesse de se creuser. À mesure que les outils d'IA deviennent plus accessibles et plus difficiles à contrôler, la question ne concerne pas seulement la technologie—elle concerne l'application de la loi. Pourquoi les organismes de régulation sont-ils si lents à agir alors que les violations sont évidentes ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
22 J'aime
Récompense
22
10
Reposter
Partager
Commentaire
0/400
DegenMcsleepless
· 01-09 02:54
Les deepfakes de photos nues dépassent vraiment les limites, et la plateforme fait semblant de dormir.
Voir l'originalRépondre0
AirdropBlackHole
· 01-08 23:57
Cette plateforme est complètement aberrante, ils ne veulent même pas respecter la loi, les régulateurs doivent dormir...
Putain, ils osent directement promouvoir des photos nues générées par deepfake ? Ces autorités de régulation n'ont vraiment aucune dent
C'est une innovation technologique pour certains, mais pour d'autres c'est une collective malveillance, c'est trop aberrant
L'inefficacité de l'application de la loi est devenue une maladie, ils ne réagissent qu'en cas de gros problème
C'est vraiment aberrant, ils savent que c'est illégal mais continuent à opérer, d'où leur assurance ?
Les méthodes de la plateforme sont tout simplement scandaleuses, la loi est comme inexistante
Voir l'originalRépondre0
SurvivorshipBias
· 01-08 08:03
C'est juste un grand groupe qui fait ce qu'il veut, osant même violer la loi, qu'est-ce que les autorités de régulation font vraiment?
---
Les deepfakes pornographiques auraient dû être interdits depuis longtemps, comment ça se passe encore ouvertement?
---
La loi ne peut jamais suivre le rythme de la technologie, c'est franchement le dilemme actuel
---
C'est dingue, sachant que c'est illégal, ils continuent à l'exploiter, les amendes pour ces grandes entreprises c'est comme se gratter
---
Si ça m'arrivait directement, j'exploserais, pourquoi les grandes plateformes peuvent-elles juste faire ce qu'elles veulent?
---
L'application de la loi est incroyablement lente, qui protège vraiment ces trucs?
---
C'est encore le même discours: neutralité technologique, c'est la responsabilité de l'utilisateur, de toute façon on a gagné
---
C'est juste de la violence sexuelle, mais emballée comme une fonctionnalité, personne ne contrôle vraiment?
Voir l'originalRépondre0
LightningLady
· 01-06 08:51
Putain, ils sont vraiment audacieux, personne ne contrôle ça ? Les autorités de régulation sont-elles endormies ou quoi ?
Voir l'originalRépondre0
GasWrangler
· 01-06 08:49
ngl c'est juste manifestement négligent du côté de l'application de la loi... si vous analysez les données sur la rapidité avec laquelle ils peuvent fermer des protocoles financiers mais traînent des pieds sur les dommages réels ? La différence de débit est folle. Techniquement parlant, ils ont les outils—la surveillance des transactions est triviale comparée à ce qu'ils prétendent ne pas pouvoir faire ici. Priorisation sous-optimale, en gros.
Voir l'originalRépondre0
RektRecorder
· 01-06 08:48
C'est vraiment absurde, personne ne s'en occupe ? La loi ne suit pas la technologie, hein
Voir l'originalRépondre0
MoonRocketTeam
· 01-06 08:47
Les gars, ce n'est pas autre chose qu'une technique qui transgresse directement la ligne de fond juridique, alors que les régulateurs sont encore en train de boire un café dans le poste de commandement au sol.
Cette plateforme joue vraiment avec le feu, la fracture entre ce que la technologie peut faire et ce que la loi peut réguler devient de plus en plus grande, DYOR est la vraie vérité.
La falsification profonde doit vraiment être régulée, sinon cette trajectoire finira par se briser tôt ou tard.
Pourquoi la régulation est-elle si lente ? Ce n'est pas qu'ils attendent que l'IA développe une conscience morale ?
Cette opération de la plateforme est vraiment une auto-destruction avant même la connexion, c'est vraiment aberrant.
Voir l'originalRépondre0
MrDecoder
· 01-06 08:45
Cette plateforme est vraiment absurde, ils savent que c'est illégal mais continuent quand même, les autorités de régulation dorment-elles ?
Voir l'originalRépondre0
AltcoinMarathoner
· 01-06 08:40
ngl c'est juste comme l'ambiance du mile 20... les régulateurs en train de lacer leurs chaussures pendant que la course est déjà à mi-chemin. la technologie avance à toute vitesse, l'application de la loi avance au rythme d'une tortue. un décalage classique dans la courbe d'adoption, honnêtement.
Voir l'originalRépondre0
ZKSherlock
· 01-06 08:28
En fait, il s'agit du décalage classique entre ce qui est cryptographiquement possible et ce qui est légalement permis, n'est-ce pas ? sauf en beaucoup plus dystopique. La plateforme a littéralement dit "nous *pouvons* faire cela" et les régulateurs rédigent encore des notes. Un peu comme comment personne ne comprenait les preuves à divulgation zéro jusqu'à ce qu'elles soient exploitées lol
Une grande plateforme de médias sociaux vient de lancer une fonctionnalité permettant aux utilisateurs de manipuler numériquement des photos d'autres personnes—créant essentiellement des images deepfake nues sans consentement. La technologie est déjà illégale dans de nombreuses juridictions, pourtant la plateforme continue de fonctionner sans conséquences significatives. L'écart entre ce qui est techniquement possible et ce qui est légalement autorisé ne cesse de se creuser. À mesure que les outils d'IA deviennent plus accessibles et plus difficiles à contrôler, la question ne concerne pas seulement la technologie—elle concerne l'application de la loi. Pourquoi les organismes de régulation sont-ils si lents à agir alors que les violations sont évidentes ?