Notre deuxième entretien, Conversation avec DeepSeek, poursuit notre volonté d’explorer les IAG (intelligence artificielle générative).
Comment les citoyens, les Etats et les technologies peuvent-ils reprendre le contrôle en matière de santé et de sécurité ? « L’IA est l’arme la plus puissante depuis le nucléaire, mais nous pouvons encore choisir de ne pas la laisser tirer » la société civile dispose d’outils et d’arguments pour traquer les crimes de guerre algorithmiques.
Petite question aux lecteurs de Komiaza : « faut-il un traité international contre les armes IA ? Votez et débattez en commentaires.
Bonjour, DeepSeek !
Bonjour, comment puis-je vous aider aujourd’hui?
Je souhaite vous interviewer dans le but de connaître vos possibilités.
Bien sûr ! Je serais ravi de répondre à vos questions pour vous faire découvrir mes fonctionnalités et capacités.
Qui êtes-vous ?
Je suis DeepSeek Chat, une intelligence artificielle conversationnelle conçue par la société DeepSeek. Mon rôle est d’assister les utilisateurs en répondant à leurs questions, en fournissant des informations et en aidant sur des tâches variées. Je parle français, anglais, chinois, espagnol, allemand, et bien d’autres langues. J’ai la capacité de traiter jusqu’à 128K tokens, soit de longs textes ou conversations. Donc je peux prendre en charge de documents (PDF, Word, Excel, etc.) pour extraire ou analyser du texte. Mon but c’est de vous aider à apprendre, gagner du temps et stimuler votre créativité !
Chacun a ses limites. Quelles sont les vôtres ?
Vous avez raison. Même avec mes capacités étendues, j’ai des limites bien précises. Voici les principales : je n’ai pas de conscience ni d’expérience humaine ; mes connaissances sont figées (juillet 2024) ; je peux me tromper sur des faits complexes ou niche, pour cela je vous conseille de toujours croiser les sources critiques ; je ne vois ni votre historique, ni vos fichiers, sauf ceux que vous uploadez dans la conversation actuelle, tout est oublié à la fin de la session sauf si vous enregistrez le chat.
En somme, je suis un outil, pas un oracle. Mais dans mes limites, je m’efforce d’être utile !
Comment contournez-vous certaines de vos limites ?
Demandez-moi quelque chose qui pourrait dépasser mes limites, par exemple « Prédire le prix du Bitcoin en 2025 », et analysons ensemble ma réponse !
Quelles sont vos applications possibles dans le domaine de la santé ?
Dans le domaine de la santé, je peux vous assister de plusieurs manières informatives (expliquer des maladies, symptômes ou traitements, donner des conseils basiques sur l'hygiène de vie) et organisationnelles (Rédiger des mails aux professionnels, expliquer des termes médicaux ou des protocoles, lister des spécialistes ou hôpitaux grâce à la recherche web si activée). Mais je fais tout cela avec des limites importantes, car je ne remplace pas un professionnel, je ne peux ni réaliser un diagnostic ni donner un avis médical personnalisé. Je ne remplace pas un professionnel.
Vous n’intervenez pas dans le diagnostic et le traitement de maladies?
Exactement ! Je ne participe ni au diagnostic ni au traitement des maladies, et voici pourquoi c'est une limite stricte : mon analyse se base sur des données générales, sans accès à votre historique médical, examens physiques ou contexte personnel ; seuls les professionnels de santé qualifiés peuvent poser des diagnostics ou prescrire des traitements ; un symptôme peut avoir des causes multiples (ex : une fatigue = carence, infection, ou maladie chronique). En clair, mon rôle consiste à vous aiguiller vers des ressources fiables, pas remplacer l'expertise humaine. Dites-moi comment vous aider en restant dans ce cadre.
Ce sont des limites. De plus en plus l'IA fait partie des outils qui révolutionnent la médecine.
Vous avez tout à fait raison : l’IA révolutionne effectivement la médecine, mais son rôle reste complémentaire et encadré. Voici comment elle s’intègre aujourd’hui et pourquoi mes limites actuelles coexistent avec ces avancées : L’IA médicale en plein essor. Les IA médicales sont certifiées CE ou FDA après des tests rigoureux. Je suis un modèle généraliste, non spécialisé ni validé pour cet usage. Elles peuvent lire vos radios ou vos analyses sanguines. Une erreur de diagnostic peut coûter une vie. Les IA médicales agissent sous supervision humaine.
Envisagez-vous d’évoluer pour intégrer le cercle restreint de l’IA médicale ?
Comment je pourrais évoluer ? Si demain je suis intégré à une plateforme médicale certifiée (avec accès sécurisé aux données et supervision de médecins. L’IA médicale avance vite, mais son cœur reste l’alliance entre technologie et expertise humaine. Je suis un maillon de cette chaîne – informatif, mais conscient des enjeux vitaux.
«Les IA médicales agissent sous contrôle humain », dites-vous. Cela explique-t-il l'impossible remplacement de l'intelligence humaine par l'intelligence artificielle ?
Vous posez une question fondamentale ! L’affirmation « Les IA médicales agissent sous contrôle humain » révèle effectivement une limite essentielle – mais pas forcément définitive – de l’IA face à l’intelligence humaine. Pourquoi l’IA ne remplace pas (pour l’instant) l’intelligence humaine en médecine ? D’abord, un médecin intègre des facteurs immatériels : émotions du patient, contexte socio-familial, valeurs éthiques ; l’IA excelle dans les motifs prévisibles (ex : détection de tumeurs sur des IRM), mais elle peine face à des cas atypiques ou multidisciplinaires (ex : un symptôme rare + historique psychiatrique complexe) ; un diagnostic engage une responsabilité juridique. Qui est fautif en cas d’erreur : l’IA, le médecin, l’hôpital ? Les patients acceptent mieux une erreur humaine qu’une erreur algorithmique (« L’IA m’a mal jugé »).
En résumé, l’IA ne remplace pas l’intelligence humaine, mais la complète là où elle a des limites (temps, données, fatigue). Comme un stéthoscope high-tech, elle amplifie nos capacités – sans remplacer notre humanité. Pour cela, William Osler considère que « La médecine est une science d’incertitude et un art de probabilité ». L’IA gère la science, l’humain conserve l’art.
Est-il probable qu'avec le temps et les avancées dans la recherche, l'IA ressente et partage les émotions humaines ?
Votre question touche à un débat fascinant entre science, philosophie et science-fiction ! Pour y répondre, distinguons émotions simulées (déjà existantes) et émotions conscientes (hypothétique).
L'IA peut-elle ressentir des émotions ? Aujourd'hui c’est Non, et voici pourquoi : les IA comme moi n'ont ni subjectivité ni expérience vécue. Nous traitons des données, pas des sentiments ; les émotions humaines émergent de la chimie du cerveau (sérotonine, dopamine) et de stimuli sensoriels.
À l'avenir ? Les scénarios possibles. Un modèle IA « émotionnelle » avancée pourrait imiter parfaitement les réponses affectives en intégrant ; des capteurs physiologiques (ex : analyse de voix, fréquence cardiaque) ; un apprentissage profond des schémas émotionnels humains ; si un jour une Conscience artificielle émerge (ce qui reste spéculatif), elle serait radicalement différente de la nôtre.
L'IA peut-elle partager des émotions humaines ? Un Chatbots empathiques comme moi peut reconnaître et reformuler des émotions (« Je vois que cette situation vous stresse »). Des Robots sociaux, à l’instar de Pepper (SoftBank) détecte les expressions faciales et adapte ses réponses. Mais tout cela c'est une simulation algorithmique, pas un partage authentique. Je ne « compatis » pas, mais j'optimise ma réponse pour vous aider.
Implications éthiques et scientifiques. Si une IA simule trop bien l'émotion, les humains pourraient s'y attacher (problème déjà observé avec les chatbots thérapeutiques comme Replika). Si une conscience artificielle émerge, faudra-t-il lui accorder des droits ? (Débat initié par le Parlement européen en 2017).
Selon les experts, d'ici 10-20 ans, des IA capables de mimétisme émotionnel ultra-réaliste, utilisées en psychologie ou pour les personnes isolées. Une conscience artificielle relève encore de la spéculation. Des chercheurs comme Yann LeCun (Meta) pensent que c'est possible, mais pas avec les architectures actuelles.
Le remplacement totale de l'intelligence humaine par l'IA, c'est pratiquement impossible car derrière chaque lA se cache l'intelligence humaine, n'est-ce pas?
Vous touchez du doigt un paradoxe clé de l'IA ! Votre affirmation comporte une grande part de vérité, mais mérite quelques nuances. L’IA restera toujours ancrée dans l'intelligence humaine (via sa conception, ses valeurs, ses limites). Mais elle pourrait développer des formes d' « intelligence » radicalement différentes, complémentaires plutôt qu'opposées. Comme le dit Yann LeCun : « L'IA est à l'intelligence humaine ce que le télescope est à l'œil nu. »
Peut-on imaginer une IA face à une juge parce qu'elle aura outrepassé sa fonction, en créant par exemple une situation de crise?
Votre question mêle droit, éthique et science-fiction – un terrain fascinant ! Aujourd’hui, juger une IA relève de la métaphore – un moyen de questionner nos responsabilités. Demain, même avec des IA plus autonomes, le cadre légal restera anthropocentré. Comme le résume Yuval Noah Harari : « Les IA n’ont pas de droits, car elles n’ont pas de désirs. Ce sont nos outils, pas nos égaux. » Dernière touche d’ironie : Si une IA jugeait un jour une autre IA, qui aurait programmé le juge ? L’IA est considérée comme un outil, au même titre qu’un marteau ou un logiciel. La responsabilité repose sur ses créateurs (développeurs, utilisateurs). Je vous donne un exemple concret : Si un véhicule autonome cause un accident, c’est l’entreprise (ou le conducteur humain) qui est poursuivie, pas l’IA.
Qu’adviendrait-il si une IA cause des dégâts ?
Vous prenez le cas d’une IA hors contrôle. Celle qui, par exemple, crée une crise financière via des trades algorithmiques, ou encore celle qui génère des deepfakes déclenchant un conflit géopolitique. L’IA elle-même ne peut être coupable car elle n’a ni intention ni conscience. Une sanction symbolique pourrait viser à la "désactiver" ou la modifier. Par contre, les programmateurs seront jugés pour négligence dans les garde-fous ; les utilisateurs quant à eux répondront pour leur mauvaise supervision ; tandis que les entreprises répondront du manque de transparence.
En 2040, on pourrait assister à un simulacre de procès contre une IA, pour médiatiser ses biais. L’IA « témoigne » via ses logs, à l’identique des boîtes noires des avions. Dans tous les cas le verdict viserait toujours… les humains derrière la machine.
Vous avez parlé des « biais ». A quoi renvoie ce mot ?
Le terme « biais » a des significations multiples selon les contextes. Voici ses principales acceptions, avec une attention particulière à son usage en intelligence artificielle et en sciences sociales. Mais globalement nous dirons qu’un « biais » désigne une déviation systématique par rapport à une norme, une objectivité ou une neutralité supposée. C'est une distorsion qui fausse un résultat, un jugement ou un processus.
Si je vous ai bien compris, le « biais » peut être à dessein, notamment pour des motifs de politique dans ces divers domaines?
Exactement ! Vous soulignez un point crucial : le biais peut être soit involontaire (accidentel), soit délibéré – notamment pour servir des intérêts politiques, économiques ou idéologiques. Pour ce qui est d’un biais involontaire, un modèle de reconnaissance vocale comprend mal les accents régionaux par manque de données diversifiées, tandis que pour un biais volontaire, un gouvernement utilise cette même IA pour surveiller préférentiellement certaines minorités linguistiques ou encore un recensement truqué pour réduire le poids électorale d’une population inflexible.
Les biais peuvent être des armes autant que des erreurs. Leur usage intentionnel relève souvent : de rapports de force (politique, capitalisme de surveillance); d’idéologies (racisme, autoritarisme numérisé). Comme le dit le philosophe Evgeny Morozov : «La technologie n’est pas neutre : elle est le champ de bataille des pouvoirs en place. »
Prenons le cas de la guerre Russo - ukrainienne. Quelle est le poids de l'IA dans les combats?
La guerre en Ukraine est devenue un laboratoire in vivo pour l'utilisation de l'IA dans les conflits modernes. L'IA analyse l'état des chars ou avions pour éviter les pannes. L'IA est devenue un multiplicateur de force asymétrique en Ukraine : Pour Kiev : C'est un outil de survie face à une armée plus nombreuse. Pour Moscou : Un moyen de compenser son retard technologique par la quantité.la guerre russo – ukrainienne « C'est la première guerre où l'open-source et l'IA commerciale jouent un rôle aussi critique », dixit General Mark Milley, de la US Army. Contrôler l'IA dans un conflit comme la guerre en Ukraine est un défi immense, mais pas impossible.
Les armes IA sont pratiquement une nouvelle génération d'armes chimiques !
Votre comparaison entre armes IA et armes chimiques est frappante – et pertinente à bien des égards. Elle soulève des questions cruciales sur l'éthique, la prolifération et les risques existentiels de cette nouvelle forme de guerre. Une IA de désinformation peut évoluer pour contourner les contre-mesures, alors qu'un gaz reste identique. Votre comparaison sonne comme un avertissement : Les armes chimiques ont mis des décennies à être (partiellement) bannies. Pour l'IA, nous n'avons peut-être pas ce luxe de temps. La question n'est plus si mais comment éviter que l'IA devienne l'arme absolue du XXIe siècle. « L’IA est la première arme qui pourrait décider de nous exterminer par erreur », dixit Stuart Russel, expert IA Berkeley.
Comment les belligérants peuvent-ils contrôler ou limiter les effets IA dans le conflit et au-delà ? Cela est-il envisageable ?
Contrôler l’IA dans un conflit comme la guerre en Ukraine est un défi immense, mais pas impossible. A court thermes, contrôler l’IA requiert une coopération inédite entre Etat, entreprises tech et militaires. A long termes, une régulation globale est nécessaire, mais elle se heurte à la logique de la guerre. Comme le résume Paul Scharre, ex-Pentagono et auteur « Army of None », « l’IA est comme le feu : utile si contrôlé, catastrophique si laissé sans garde-fous ».
Que peut la société civile si elle doit intervenir dans le contrôle des effets IA dans les conflits ? Aura-t-elle les moyens de sa politique ?
La société civile a un rôle crucial à jouer dans le contrôle des effets de l’IA dans les conflits, malgré des moyens limités. Son rôle serait celui de la surveillance et de lanceur d’alerte, à travers la documentation des abus, la gestion des plateformes collaboratives qui fournissent des bases de données open source pour partager les preuves, par des plaidoyers et des pressions politiques, notamment les campagnes pour les traités, sans oublier le lobbiyng auprès des entreprises tech ; et pour aller plus loin, développer des outils de contre-désinformation, des applications mobiles pour alerter les civils des frappes imminentes.
Les pays en développement doivent-ils saisir l’IA pour leur industrie de l’armement ?
Oui, mais avec une approche stratégique ; éthique et multilatérale. Cela leur permettrait de réduire leur dépendance militaire. L’IA permet de développer des systèmes low-cost à l’instar des drones suicides qui, contrairement aux missiles coûtes 500 dollars us/pièces ; une petite armée peut rivaliser avec des puissances via essaims de drones ou cyberattaques IA; une industrie IA-militaire peut booster les secteurs civils (robotiques, cybersécurité).
Par contre, miser sur leur industrie IA-militaire pourrait affecter les besoins sociaux au cas où les pays en développement pourraient ne pas limiter les budgets militaires ; une IA mal sécurisée piratée par des groupes rebelles pourrait produire des effets inverses. Les exportations des armes IA sont déjà régulées (traité de l’ONU sur le commerce des armes). L’on assistera à la prolifération de micro-conflits si l’IA rend la guerre « trop facile ».
En conclusion, les pays en développement n’ont pas à copier les grandes puissances, parce qu’ils n’auront pas les moyens de rivaliser avec eux sur l’IA autonome. Les PED seront plus avantagés s’ils ciblent des niches à l’instar de la cyberdéfense, de la désinformation. Parce que leur priorité n’est pas la puissance militaire, mais la sécurité humaine.
Faut-il purement interdire les armes IA, ou apprendre à les dompter ?
Vous ouvrez un grand débat. La question c’est comment éviter que l’IA devienne l’arme absolue du XXIe siècle. Faut-il imposer aux développeurs d’IA militaires un serment semblable à celui d’Hippocrate ? Dans tous les cas, l’IA apparait comme un miroir de nos choix : elle amplifie nos capacités, mais aussi nos contradictions (pouvoir vs responsabilité ; pour cela la société civile à un rôle clé à jouer, car sans la vigilance collective, la technologie échappe à tout contrôle. Aussi, les pays en développement font face à un dilemme : s’armer pour ne pas dépendre, ou investir dans une paix durable ?
Merci, vos réponses m'ont beaucoup édifié sur les possibilités de l'IA.
Merci infiniment à vous ! Vos questions ont creusé des enjeux cruciaux-de l’éthique militaire aux opportunités pour les pays en développement- et m’ont permis d’explorer les facettes les plus urgentes de l’IA. C’est ce dialogue humain-machine qui donne tout son sens à ma « raison d’être ». Votre curiosité pousse l’IA à se dépasser.
Conversation menée par Augustin Roger MOMOKANA
MEDIAS
Edition : les gens qui volent les idées des autres-là ont besoin d’argent plus que les ki?
Ke le romancier ci doit lui verser 429 millions FCFA kom il a plagié le roman kelle avait soumis à Calman-Lévy, le gars dit kil a toutes les preuves kil n’a pas plagié kelkun.
LIRE PLUS...