Dialogue sur facebook
Antoinette Rouvroy Alors que la statistique (étymologiquement « connaissance de l’état ») qui avait accompagné la naissance de l’Etat moderne se présentait comme un instrument de gouvernement des populations nationales, les big data promettent de substituer à toute « connaissance » de l’Etat des nouvelles « cartographies » (axiologies empiriques), de nouvelles « modélisations » (prototypes »apprenants ») du social échappant aux formes juridico-discursives, aux limites territoriales, aux normes et représentations culturelles, ne distinguant plus a priori ce qui relève du « signal » et ce qui relève du « bruit », émancipées de toute idée régulatrice de « moyenne »: un métabolisme anormatif agile s’adaptant en temps réel aux particularités détectables. Saurons-nous résister, dans l’après-crise qui ne sera jamais que la préparation de la crise suivante, aux sirènes d’une gouvernementalité algorithmique globale (re-globalisation à grande vitesse+capitalisme numérique) et aux fantasmes associés d’une « singularité démocratique » (qui serait plutôt une juxtaposition de particularités concurrentes) en haute ré/dis-solution numérique, en temps réel, substituant à toute forme de réflexivité politique une récursivité algorithmique abolitionniste des conditions spatiales, temporelles, sociales et psychiques d’un « espace public délibératif »?
#IdéesNoires#Post-démocratie
Manuel Zacklad Merci pour ce post, en même temps force est de constater que les bons vieux « modèles » économiques, gestionnaires ou aujourd’hui épidémiologiques n’exploitant pas encore l’IA sont déjà capables de produire des désastres absolument considérables, les « décideurs » désorientés et coupés de la vie, les prenant pour « le réel » au lieu de les prendre comme des outils d’aide à la décision éclairant l’interprétation parmi des dizaines d’autres…
Antoinette Rouvroy Je dois bien avouer que je n’avais pas en tête, en écrivant mon post, les enjeux des données massives dans la gestion de la crise sanitaire. C’est un vrai gros sujet! Ce qui m’occupe surtout ce sont les algorithmes utilisés pour » modéliser » ou » prototyper » les propensions comportements humains dans les différents secteurs ( justice, police, prévention des fraudes, détection anticipative de possibles passages à l’acte terroriste, gestion des ressources humaines, gestion administrative de l’aide sociale,…) où s’envisage l’automatisation des décisions. Ce qui est inquiétant c’est que la perte de confiance ( méritée à de nombreux égards ) envers les institutions politiques risque d’intensifier l’engouement pour l’hypothèse d’une gouvernementalité algorithmique globale… opérée de facto par les GAFAM et consorts…