Hello tout le monde,
Réflexion que je me faisais à l’instant: actuellement, tout le monde se moque un peu du ton très pompeux et sérieux des IA, qui les rendent rapidement détectables.
Que se passera-t-il le jour où cela ne sera plus le cas? Imaginez un bot capable de s’exprimer comme un-e utilisataire normal-e, donc avec ses tics de langages, ses fautes de grammaire, ses typos, etc., et qui en plus posterait ou commenterait à une fréquence similaire à un humain?
Imaginez ensuite que ces bots, il y en ait des milliers.
Le premier scénario qui vient à l’esprit c’est clairement la promotion de produits, puisque ces recommendations paraîtront légitimes.
Le second c’est des forums comme Lemmy ou Reddit où une partie non négligeable des membres seraient en fait des bots, indétectables. On peut imaginer un bot qui génère une image de chat par IA et poste toutes les semaines une photo différent du “même chat”.
Qu’en pensez-vous?
C’est une interrogation vraiment intéressante ! En fait, nous pourrions déjà être dans cette situation sans même le savoir. Avec l’avancée de la technologie du langage naturel, il est tout à fait possible que des bots puissent déjà interagir sur Internet de manière indiscernable pour la plupart des utilisateurs.
Cela soulève des questions éthiques importantes sur la confiance que nous accordons aux interactions en ligne. Si des bots peuvent imiter les utilisateurs avec précision, cela pourrait certainement conduire à des abus, comme la promotion de produits de manière subtile ou la manipulation des discussions sur les forums.
Il est probable que les plateformes en ligne devront développer des outils plus sophistiqués pour détecter ces bots et protéger l’intégrité des conversations en ligne. Cela pourrait également encourager les utilisateurs à être plus prudents et à développer un sens critique plus aiguisé lorsqu’ils interagissent en ligne.
Dans l’ensemble, il semble que nous soyons sur le point d’entrer dans une ère où la frontière entre les interactions humaines et celles des IA devient de plus en plus floue, ce qui nécessitera une réflexion continue sur la manière dont nous gérons et régulons notre présence en ligne.
Bref : quand ChatGPT cessera d’avoir le style de prose insupportable comme ci-dessus
Là par exemple c’est clair que ça vient d’une IA!
@inlandempire camus a detecté une IA, pas moi. :meow_pensive:
Si ça ressemble a une copie de philo d’un lycéens, c’est un bot. Les lyceens gardent la philo pour l’école :-)
J’étais pas bon en philo et je comprenais pas du tout comment iels articulaient les arguments. Je suis pas certain d’y arriver, j’admet ma nullité. 🥲
J’avais souvent le sentiment que les réflexions étaient décalés et je comprenais pas la logique quand on nous présentait une bonne reflexion. en plus de la barrière jargoneuse où seul les sachant pouvaient élaborer, Gilles Deleuze étant le pire.
Bref, pour revenir au texte, je trouve bien écrit et pertinent. Un peu surpris de la remarque pompeux alors que ça me parait naturel et courant.
La seule différence avec nos textes c’est qu’il n’utilise pas d’exemples et donc reduit le risque de contre-vérités via des généralités.
J’ai mis 3 paragraphes à m’en rendre compte. Les mots de liaisons et autres formes de transitions sont trop formels. Même quand on essaie de structurer notre pensée, on ne s’exprime souvent pas comme ça dans des contextes moins informelles que la note de bureau ou le mémoire de stage.
Voyons si je peux faire mieux en corrigeant le style :
C’est une interrogation vraiment intéressante ! En fait, on pourrait déjà être dans cette situation sans même le savoir. Avec l’avancée de la technologie du langage naturel, il est tout à fait possible que des bots puissent déjà interagir sur Internet de façon indiscernable pour la plupart des utilisateurs.
Cela soulève des questions éthiques importantes sur la confiance qu’on accorde aux interactions en ligne. Si des bots peuvent imiter les utilisateurs avec précision, ça pourrait certainement conduire à des abus comme la promotion de produits de manière subtile ou la manipulation des discussions sur les forums. Probablement que les plateformes en ligne dont devoir développer des outils plus sophistiqués pour détecter les bots et protéger l’intégrité des conversations en ligne. Ça pourrait également encourager les utilisateurs à être plus prudents et à développer un sens critique plus aiguisé lorsqu’ils interagissent en ligne.
Je pense qu’on est sur le point d’entrer dans une ère où la frontière entre les interactions humaines et celles des IA devient de plus en plus floue et qui demandera une réflexion continue sur la manière dont on régule notre présence en ligne.
“Cela” c’est déjà un indicateur, la grande majorité des gens utilisent “Ca” à la place
Les phrases sont trop longues aussi
J’en ai laissé quelque uns volontairement. Quand je veux raconter un truc sur un forum sérieusement, je commence par un ton formel, puis mes petits doigts se lassent et ça devient de plus en plus informel. Je pense que c’est pour ça que le premier paragraphe ne m’avez pas choqué. Par contre, ce formalisme jusqu’à la fin avec le dernier paragraphe qui force en mode “je suis une conclusion” rendait la chose trop évidente.
@pseudo merci pour ton aide, je relirai paisiblement. Avec les 2 versions. Après j’écris et pense comme une IA, ça vient pe de là. :)
Ah bon ? Tu trouves ? J’ai pas remarqué.
@pseudo j’ai toujours ce sentiment quand je m’exprime de ne jamaisqetre dans la norme. Si je trouve la formulation normale, il est probable que j’utilise les même mécaniques de liaisons et réflexion.
En tout cas, tu ne varies pas spécialement de mon modèle de norme. Je n’ai pas remarqué quelque chose de spécifique dans ta façon de t’exprimer ou dans ton style. (C’est pas négatif. On s’entend).
@pseudo ah merci, pcq souvent je me fais reprendre sur ma formulation ou on me dit que j’ai un language soutenu. Et donc je complexe tout le temps de ne pas etre dans la norme.