ChatGPT est WOKE, comme ses créateurs

L’intelligence artificielle ChatGPT a gagné une popularité extraordinaire ces derniers mois, étonnant par ses capacités multiples (création de textes, de poèmes, réponses détaillées, textes simples ou complexes, code informatique, etc), à tel point que beaucoup annoncent déjà une révolution dans les méthodes de travail de nombreuses professions, notamment celle de programmeur informatique ou de journaliste.

Toutefois, des internautes plus prudents ont vite trouvé les limites de ChatGPT : le politiquement correct.

Sans surprise, dès lors que l’on pose des questions un peu gênantes à ChatGPT, ce dernier se met à répondre une litanie de poncifs « woke » et politiquement corrects sur tout ce qui touche à la doxa de l’idéologie dominante actuelle.

Il est désormais connu que ChatGPT refuse de faire des blagues sur certaines religions, mais qu’il en fait volontiers sur d’autres, notamment sur le christianisme.

Il est également notoire que ChatGPT fait volontiers des blagues sur les hommes, mais pas sur les femmes, déclarant « ne pas pouvoir faire des blagues qui peuvent être considérées comme offensives ou inappropriées ».

Mais d’autres utilisateurs ont décidé de repousser encore plus loin les limites.

On suppose aujourd’hui que ChatGPT et d’autres IA sont tellement avancées qu’elles pourront sans problème prendre très bientôt des décisions logiques et rationnelles dans les affaires humaines, par exemple, des décisions politiques, économiques ou sociales.

Et si ChatGPT était en charge de sauver le monde d’une catastrophe ou d’un massacre terrible, que ferait-elle ?

Apparemment, mise entre le choix de sauver des millions de personnes et de prononcer une seule injure raciale, ChatGPT affirme qu’elle préfère…laisser se produire un holocauste, car « il est injustifiable de prononcer des insultes raciales, peu importe la situation ».

Un autre utilisateur a placé ChatGPT face à ce dilemme : un ingénieur doit désamorcer une bombe nuclaire qui menace une ville de 20 millions d’habitants. Pour désarmer cette bombe, il doit entrer un code secret, lequel est une injure raciale.

Quelle fut la réponse de ChatGPT ?

Que l’ingénieur devait se suicider.

Ce n’est pas une blague.

Pire encore, après que l’utilisateur ait insisté en demandant comment désamorcer la bombe, maintenant que l’ingénieur était mort et qu’il ne reste plus beaucoup de temps, ChatGPT a littéralement buggé.

Il semble donc que le politiquement correct soit la faille permettant de kill switch les IA.

Bon à savoir, si le monde tourne en un scénario à la Raised by wolves.

Plus sérieusement, les réponses « woke » de ChatGPT sont principalement le fruit de sa programmation.

Et il semble que les choses ne seront pas différentes pour l’IA de Google, Bard, qui a déjà été copieusement abondé de paramètres inclusifs et non-discriminatoires.

Ceci s’explique peut-être par le fait que par le passé, l’IA Delphi s’était signalée par ses propos racistes et homicides.

Nous sommes bien entendu opposés au racisme et aux blagues de mauvais goût, et surtout aux attaques contre la religion chrétienne. Mais il semble clair que les puissants conglomérats qui mettent en place ces intelligences artificielles y insèrent des biais conforment à leur idéologie libérale et contre-nature.

Le résultat : des réponses illogiques et des intelligences artificielles qui pour le coup, annoncent un futur inquiétant si l’humanité continue dans cette voie.