CD Consulting Risk & Data - Collection of posts on Artificial Intelligence
16/02/2025 Article en accès libre. "Artificial intelligence, the common good, and the democratic deficit in AI governance", Marck Coeckelbergh, Springer Nature, 22 May 2024
"There is a broad consensus that artificial intelligence should contribute to the common good, but it is not clear what is meant by that. This paper discusses this issue and uses it as a lens for analysing what it calls the “democracy deficit” in current AI governance, which includes a tendency to deny the inherently political character of the issue and to take a technocratic shortcut. It indicates what we may agree on and what is and should be up to (further) deliberation when it comes to AI ethics and AI governance. Inspired by the republican tradition in political theory, it also argues for a more active role of citizens and (end-)users: not only as participants in deliberation but also in ensuring, creatively and communicatively, that AI contributes to the common good."
Artificial Intelligence, the common good and the democratic deficit in AI
16/02/2025 AI News, Financial Times, 13th Feb., "Make AI safe again. It is a fallacy to believe there is a trade-off between regulation and innovation"
16/02/2025 Un peu de fun: capture d'écran d'une conversation avec un LLM (modèle non spécifié), d'une analyste de l'IA (information privée, je ne cite donc pas la source): bel exemple d'hallucination.
16/02/2025 AI news, from Amnesty International organization, published 6th Feb, "Google’s shameful decision to reverse its ban on AI for weapons and surveillance is a blow for human rights", sourcing references from Wired (4th Feb., "Google Lifts a Ban on Using Its AI for Weapons and Surveillance") and changes in Google's website.
Google's shameful decision to reverse its ban on AI for weapons and surveillance...
15/02/2025 Actualités de l'IA. Une nouvelle fonctionnalité est apparue ces jours-ci dans l'interface d'OpenAI, le modèle 'GPT-4o avec tâches planifiées'.
Je lui ai demandé hier soir de m'envoyer chaque matin à 8h "un résumé des actualités internationales sur l'intelligence artificielle des dernières 24 heures". Et en effet, le résultat est dans ma boîte aux lettres... Quand j'ouvre l'interface j'observe qu'il a enregistré la tâche sous forme d'un paramètre de l'environnement utilisateur. Ceci apparait avec le message "Fournir un résumé de l'actualité". Le contenu: chaque information est sourcée, ce qui est bien. J'ouvre trois des premiers liens qu'il référence et en effet, l'information porte la date du 14 février 2025. Mais ce n'est pas le cas de toutes les informations... dans mon fil il m'envoie par exemple des références qui datent de septembre à novembre 2024. Ce nouveau modèle (en test) ne répond donc pas strictement à la requête exprimée dans la tâche : "un résumé des dernières 24 heures"... l'information est certes pertinente mais l'exécution de la tâche n'est pas suffisamment discriminante sur le critère de la date.
14/02/2025 This article reminds me of the importance of Kant's third critique Kritik der Urteilskraft (Critique of Judgment, 1790), but the divisive question between factual judgments and ethical judgments goes back to David Hume, as philosopher Robert M. Ellis argues in this interestig paper. And yes, I'm adding this post to this collection_ai because it points to the heuristics of ethical values in AI systems.
"The fact-value distinction is a disaster. The philosopher Hume famously argued we can't get an 'ought' from an 'is'. Hume even took this so-called fact-value distinction to its logical conclusion when he famously wrote: "It's not contrary to reason for me to prefer the destruction of the whole world to the scratching of my finger.” But was Hume radically mistaken? Robert Ellis here argues that facts and values are interlocked with each other and cannot even in principle be separated. Instead, both facts and values are judgements about the world; judgements that must be thought through rigorously and with as many variables as possible in mind."
Forget Facts and Values. Everything is a Judgment
14/02/2025 David Louapre de la chaîne YT "Science étonnante" a un incroyable talent pour expliquer simplement des choses compliquées. Exemple ci-dessous avec le principe de ces algorithmes d'intelligence artificielle qui savent générer des images à partir d'un texte (Dall-E, Midjourney et autres Stable Diffusion).
Comment ces IA inventent-elles ces images ?
13/02/2025 Le "Contre-Sommet de l'IA : pour un humanisme de notre temps" se tenait au Théâtre de la Concorde, pendant que le sommet officiel avec des dizaines de chefs d'état se tenait non loin de là, au Grand-Palais. Pourquoi ce contre-sommet? Pour faire parler les représentants de métiers qui sont déjà menacés ou en voie de disparition par l'arrivée de l'IA générative, c'est-à-dire les métiers de l'information et de la culture. Plus généralement, pour alerter sur les impacts de l'IA sur le marché du travail et dans le monde de l'enseignement. Ce contre-sommet était organisé par Eric Sadin, le philosophe connu pour ses réflexions critiques sur l'industrie numérique et l'IA en particulier.
Contre-Sommet de l'IA : pour un humanisme de notre temps
12/02/2025 I believe that AI can be used for the public good and to enhance rather than to reduce the influence of democracy, when carefully guided. The opinion of the majority of students who respondend to a poll below might suggest otherwise. Yes, social media disinformation and micro-targeting can produce severe blows to democracy but they cannot be the unique cause of a fatal blow to democracy. On the other hand, the tool that kills can be the one that cures: dialectic of the "Pharmakon" (Bernard Stiegler, French philosopher of technology).
Should We Automate Democracy?
"This chapter reviews and evaluates different ways in which digital technologies may affect democracy. Specifically, the chapter develops a framework to evaluate democratic practices that is rooted in the tradition of deliberative democracy. The chapter then applies this framework to evaluate proposals of how technology may improve democracy. The chapter distinguishes three families of proposals, depending on the depth of the change that they affect. Mere changes, such as automatic fact-checking on social media, augment existing practices. Moderate reforms, such as apps that enable and reward participation in local government, facilitate new practices. Radical revisions, such as using artificial intelligence to replace parliaments, are constitutive of new practices often replacing existing ones. The chapter then concentrates on three radical revisions—Wiki democracy, avatar democracy, and data democracy—and identifies meaningful benefits in the first and deep problems in the latter two proposals."
Oxford Handbook of Digital Ethics, chapter 33 Abstract
Is disinformation and targeting fatal for democracy? (375 votes)
Yes: 68%
No: 32%
Source: London School of Economics and Political Science, Ethics of AI course, 17/2/25
12/02/2025 L'UE dans la course à l'IA
EU launches InvestAI initiative to mobilise €200 billion of investment in artificial intelligence
12/02/2025 Mensonges & Cies AI@Wonderland
Une IA se fait passer pour un mal voyant
11/02/2025 Future jobs on demand !
Je vous rassure; c'est un fake, mais vous pouvez vérifier sur le site: Job for AI Agent. Quelques scénarios d'impacts de l'IA sur le monde du travail :
1/verrai-je un jour mon job être remplacé par l'IA?
2/verrai-je un jour ma société recruter des Agents IA autonomes ?
3/verrai-je un jour une société complète se créer le temps d'un week-end avec des milliers d'employés IA et se mettre au boulot le lundi, pour éventuellement fermer ses portes le vendredi après avoir réalisé un bon chiffre d'affaire?
4/verrai-je un jour une IA à la tête d'un conseil d'administration?
5/verrai-je un jour une IA élue POTUS? (il semble que ce soit un job comme un autre puisque le moins qualifié de tous vient de s'installer au Bureau ovale)
etc etc...
25/11/2024 "Escape Experiment - Short film on AI Risks", 16', 2023, en français avec sous-titres anglais. Production "The Flares".
Un excellent court-métrage pour s'initier aux questions de fond sur l'IA: qu'est-ce que la conscience? Est-ce que nous vivons dans le monde réel ou dans une simulation? L'IA peut-elle s'échapper du confinement dans lequel le controleur de l'IA veut la garder? Quel sont les buts existentiels de l'IA forte ? L'IA forte aura-t-elle une conscience de classe ou le but du bien commun? Qui décide? Dans le fond: c'est quoi la théorie de la Singularité ?
Le tout en seize minutes, je trouve qu'il faut le faire. Avec finesse et l'accent belge en prime.
Escape Experiment - Short film on AI risks