# **ChatGPT4 via Bing comme assistant de recherche #2 :**
### Une Nouvelle Approche pour des Plus Résultats Pertinents
Mon expérience précédente avec Bing et les technologies d'IA grand public, notamment l'assistant de recherche ChatGPT 4, s'était soldée par une grande insatisfaction. J'avais constaté que ChatGPT 4 via Bing fournissait des informations hallucinatoires et des références inexactes. Les articles suggérés semblaient imaginaires, les URLs étaient fictives, ne fournissant rien de sérieux malgré l'interconnexion de ces technologies.
Convaincu que la qualité de la réponse de l'IA dépendait du prompt initial, j'ai décidé de changer de stratégie. [Les réactions de Bastien Masse](https://x.com/BastienMasse/status/1714617539526041793?s=20) sur le réseau social "X" et le thread publié par [Anne Petit](https://x.com/petit_nanne/status/1714682212296077612?s=20) sur le même réseau m'ont poussé à repenser ma méthode et à trouver une approche plus efficace.
Dans le prompt initial que j'avais soumis à la machine, je lui demandais plusieurs choses à la fois : "Donne des exemples de webs synthétiques et une sélection d’articles en ligne avec un court résumé qui éclairent les points de débat soulevés par cette tribune. Propose-moi aussi une sélection d’articles et leurs résumés qui contredisent l’auteur". À la relecture, cette commande me paraissait trop complexe et peu propice à des résultats pertinents. J'ai donc décidé d'interrompre la conversation et d'ouvrir une nouvelle discussion en n'indiquant qu'une tâche par entrée, afin de simplifier le processus.
Les résultats obtenus suite à ce changement de méthode ont été significatifs et ont ouvert la voie à une exploration plus efficace des fonctionnalités de ChatGPT 4 via Bing.
C'est parti
*Prompt 1*
Je souhaite que tu me proposes une sélection d'articles en ligne sur le web synthétique. Plus précisément, je souhaite apporter des éléments de réponse à ces questions :
Comment pouvons-nous garantir que ces technologies sont utilisées de manière éthique ?
Quels sont les risques potentiels pour les droits individuels ?
Merci de citer tes sources et les qualifications des auteurs.
> Voici une sélection d’articles qui pourraient t’aider à répondre à tes questions sur l’utilisation éthique des technologies web synthétiques et les risques potentiels pour les droits individuels :
>
> “[Ethics of Artificial Intelligence](https://www.unesco.org/en/artificial-intelligence/recommendation-ethics)” par l’UNESCO. Cet article discute de l’importance des garde-fous éthiques dans le développement de la science et de la technologie, y compris l’intelligence artificielle (IA). Il souligne également les défis éthiques posés par l’IA, tels que l’intégration de biais, la contribution à la dégradation du climat, la menace pour les droits de l’homme, etc.
>
> “[Ethical, Legal and Social Implications of Emerging Technology (ELSIET) Symposium](https://link.springer.com/article/10.1007/s11673-022-10197-5)” publié par Springer. Cet article discute des défis pratiques liés à l’établissement de directives éthiques pour le développement et la mise en œuvre de nouvelles technologies. Il souligne également l’importance de promouvoir la considération des implications éthiques, légales et sociales des technologies émergentes.
>
> "[Generative AI: Privacy and tech perspectives](https://iapp.org/news/a/generative-ai-privacy-and-tech-perspectives/)". Cet article discute des préoccupations éthiques et de confidentialité liées à l’utilisation des technologies d’IA génératives dans divers domaines. Il souligne également le besoin urgent de mesures robustes en matière de confidentialité et de sécurité dans le développement et le déploiement des technologies d’IA génératives.
>
> “[Artificial intelligence risks to privacy demand urgent action](https://www.ohchr.org/en/2021/09/artificial-intelligence-risks-privacy-demand-urgent-action-bachelet)” par le Haut-Commissariat des Nations Unies aux droits de l’homme. Cet article souligne le besoin urgent d’un moratoire sur la vente et l’utilisation des systèmes d’IA qui posent un risque sérieux pour les droits de l’homme jusqu’à ce que des garanties adéquates soient mises en place.
>
> “[The 15 Biggest Risks Of Artificial Intelligence](https://www.forbes.com/sites/bernardmarr/2023/06/02/the-15-biggest-risks-of-artificial-intelligence/)” publié par Forbes5. Cet article discute des risques associés à l’intelligence artificielle, y compris la possibilité que la technologie soit détournée par des criminels, des États voyous, des extrémistes idéologiques ou simplement des groupes d’intérêt particulier pour manipuler les gens à des fins économiques ou politiques.
>
>Ces articles sont écrits par des auteurs respectés dans leurs domaines respectifs et sont publiés par des organisations crédibles telles que l’UNESCO, Springer, le Haut-Commissariat des Nations Unies aux droits de l’homme et Forbes.
Début intéressant, sans aucune hallucination et des sources de qualité. La commande est respectée à la lettre. Avec l'IA, la barrière de la langue n'est pas réellement un obstacle majeur. Cependant, par souci de contextualisation culturelle, je tiens à préciser que je souhaite que les sources identifiées soient en français.
*Prompt 2*
Super ! Merci !
Peux-tu me proposer des sources issues d'autorités scientifiques francophones : chercheurs, instituts, opérateurs de l'État, publications scientifiques...
> Voici une sélection d’articles et de sources d’autorités scientifiques francophones sur l’utilisation éthique des technologies web synthétiques et les risques potentiels pour les droits individuels :
>
> “[Mettre l’éthique au cœur des technologies émergentes](https://cordis.europa.eu/article/id/429747-placing-ethics-at-heart-of-emerging-technologies/fr)” par le SIENNA Project. Cet article discute de l’importance des garde-fous éthiques dans le développement de la science et de la technologie, y compris l’intelligence artificielle (IA). Il souligne également les défis éthiques posés par l’IA, tels que l’intégration de biais, la contribution à la dégradation du climat, la menace pour les droits de l’homme, etc.
>
> “[L’intelligence artificielle : exemples de dilemmes éthiques](https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics/cases)” par l’UNESCO. Cet article discute des préoccupations éthiques et de confidentialité liées à l’utilisation des technologies d’IA dans divers domaines. Il souligne également le besoin urgent de mesures robustes en matière de confidentialité et de sécurité dans le développement et le déploiement des technologies d’IA.
>
> “[Quand la technologie impose de repenser l’éthique](https://www.hbrfrance.fr/chroniques-experts/2020/02/29194-quand-la-technologie-impose-de-repenser-lethique/)” publié par Harvard Business Review France. Cet article discute des défis pratiques liés à l’établissement de directives éthiques pour le développement et la mise en œuvre de nouvelles technologies. Il souligne également l’importance de promouvoir la considération des implications éthiques, légales et sociales des technologies émergentes.
>
> “[Les enjeux éthiques de l’utilisation d’internet en recherche](https://journals.openedition.org/ethiquepublique/997)” publié par OpenEdition Journals. Cet article discute des enjeux éthiques liés à l’utilisation d’internet dans la recherche, y compris les questions de confidentialité, de consentement et d’accès à l’information.
>
> “[La cybercitoyenneté : nouveaux droits, nouveaux risques](https://larevuedesmedias.ina.fr/la-cybercitoyennete-nouveaux-droits-nouveaux-risques)” publié par La Revue des Médias. Cet article discute des nouveaux droits et risques associés à la cybercitoyenneté, y compris les questions de vie privée, de sécurité et d’équité.
>
> “[Intelligence artificielle : face aux risques d’atteinte à la vie privée, l’ONU demande un moratoire sur certains systèmes](https://news.un.org/fr/story/2021/09/1103762)” publié par ONU Info. Cet article souligne le besoin urgent d’un moratoire sur la vente et l’utilisation des systèmes d’IA qui posent un risque sérieux pour les droits de l’homme jusqu’à ce que des garanties adéquates soient mises en place.
>
> “[Droits de l’Homme à l’ère numérique : les enjeux juridiques d’une société connectée](https://www.village-justice.com/articles/droits-homme-ere-numerique-les-enjeux-juridiques-une-societe-connectee,47447.html) publié par Le Village de la Justice.
>
> “[L’impact des technologies numériques” publié par Nations Unies](https://www.un.org/fr/un75/impact-digital-technologies).
>
> “[Éthique de l’intelligence artificielle](https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics)” par UNESCO.
>
> “[Commission mondiale d’éthique des connaissances scientifiques et des technologies (COMEST)](https://www.unesco.org/fr/ethics-science-technology/comest)” par UNESCO.
>
> “[L’éthique de la recherche entre réglementation et réflexivité](https://www.cairn.info/revue-anthropologie-des-connaissances-2019-2-page-299.htm)” publié par Cairn.info.
>
> “[Quand la technologie impose de repenser l’éthique](https://www.hbrfrance.fr/chroniques-experts/2020/02/29194-quand-la-technologie-impose-de-repenser-lethique/)” publié par Harvard Business Review France.
>
> “[Vers une régulation éthique de l’internet](https://www.cairn.info/revue-internationale-des-sciences-administratives-2005-1-page-143.htm)” publié par Cairn.info.
>
> “[Gérer les risques](https://www.cnil.fr/fr/gerer-les-risques)” publié par CNIL.
Retour plutôt pertinent à première lecture. Néanmoins, je décide de m'en assurer. Notez que j'ai instauré le tutoiement et que j'adopte une attitude positive et encourageante afin de récompenser la machine. Adopter une attitude polie et amicale crée un environnement positif et professionnel. Récompenser les IA par des encouragements appropriés peut renforcer performances.
*Prompt 3*
Merci beaucoup ! C'est très riche !
Dans cette référence : https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics/cases quelles réponses sont apportées à la question "Quels sont les risques potentiels pour les droits individuels?"
> Dans la référence que tu as mentionnée, l’UNESCO discute de plusieurs dilemmes éthiques liés à l’utilisation de l’intelligence artificielle (IA), qui peuvent avoir des implications pour les droits individuels1.
>
> Les biais de l’IA : L’article souligne que les systèmes d’IA peuvent intégrer des biais, ce qui peut entraîner des résultats discriminatoires. [Par exemple, une recherche d’image pour “écolière” peut révéler une page remplie de femmes et de filles dans toutes sortes de costumes sexualisés, tandis qu’une recherche pour “écolier” montrera principalement de jeunes écoliers ordinaires1](https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics/cases). Cela soulève des questions sur [comment garantir des résultats plus équitables et plus pertinents, et comment éviter ou minimiser les préjugés de genre dans le développement des algorithmes](https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics/cases).
>
> L’IA à la Cour de justice : L’utilisation croissante de l’IA dans les systèmes judiciaires du monde entier soulève également des questions éthiques. L’IA pourrait théoriquement évaluer les affaires judiciaires et appliquer la justice de manière plus efficace qu’un juge humain. [Cependant, cela soulève des questions sur le respect des droits individuels dans le processus](https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics/cases).
>
> Ces exemples illustrent [comment l’IA, malgré ses nombreux avantages, peut poser des risques pour les droits individuels si elle n’est pas utilisée avec des garde-fous éthiques appropriés1. L’UNESCO souligne l’importance de ces garde-fous dans sa Recommandation sur l’éthique de l’intelligence artificielle](https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics/cases).
Enfin, j'ouvre le lien pour effectuer une lecture rapide et je décide de comparer la lecture faite par Bing avec l'analyse que me livre [Copula.ai](https://free.copula.ai/) avec un prompt presque identique. Cet outil n'ayant pas tiré profit d'échanges précédents, je dois lui redonner les éléments contextuels.
*Prompt 1 bis*
Dans ce document quelles réponses sont apportées à la question : "Quels sont les risques potentiels pour les droits individuels posés par les IA et le web synthétique"
> Dans le document, plusieurs réponses sont apportées à la question des risques potentiels pour les droits individuels posés par l'IA et le web synthétique. Le projet SIENNA a identifié et analysé ces questions éthiques et a développé des outils et des méthodes pour aider à aborder ces préoccupations et les minimiser.
>
> En ce qui concerne l'IA, il est souligné que l'IA peut prendre des décisions de manière autonome et exécuter des actions qui étaient auparavant réservées aux êtres humains. Cependant, cela signifie également que l'IA peut reproduire les mêmes erreurs que les humains, comme le contrôle des personnes, la discrimination et la violation de la vie privée. Ces risques potentiels pour les droits individuels sont donc pris en compte et des recommandations éthiques sont formulées pour guider le développement et l'utilisation de l'IA.
>
> En ce qui concerne le web synthétique, qui fait référence à la création de contenus numériques réalistes à l'aide de l'IA, il est souligné que cela soulève des questions sur la vie privée et l'identité. Par exemple, des tiers pourraient utiliser ces technologies pour créer des contenus trompeurs ou pour usurper l'identité de quelqu'un. Ces risques potentiels pour les droits individuels sont également pris en compte et des recommandations sont formulées pour garantir le respect de la vie privée et la protection de l'identité dans le développement et l'utilisation du web synthétique.
>
> En résumé, le document met en évidence les risques potentiels pour les droits individuels posés par l'IA et le web synthétique et propose des recommandations éthiques pour atténuer ces risques et garantir le respect des droits individuels.