How We Investigated France’s Mass Profiling Machine - eviltoast
  • morras@jlai.lu
    link
    fedilink
    Français
    arrow-up
    1
    ·
    11 months ago

    Je parle des critères utilisés par l’algorithme, tu me me parles pathos.

    J’explique que les critères utlisés ne me semblent pas déconnants au regard des prestations servies, tu y réponds en une demi-phrase lapidaire (critères de merde).

    J’ai bien conscience qu’un controle peut mettre salement dans la merde une famille qui y est deja, que les pouvoirs d’investigation sont … étonnants (pour rester poli) et que la compétence n’est pas le premier mot qui me vient à l’esprit quand on me parle de l’administration publique française.

    Mais ce n’est pas le sujet.

    On parle de l’algorithme de détection, des possibles biais, et de la balance de pouvoir.

    Jouer sur la corde sensible ne mène à rien, car en face d’une famille “faux positif” on va trouver des cocos qui sont inscrits au RSA dans 10 départements différents (véridique. Mais ça a pris fin vers 2010).

    • Narann@lemmy.world
      link
      fedilink
      Français
      arrow-up
      6
      ·
      11 months ago

      J’explique que les critères utlisés ne me semblent pas déconnants au regard des prestations servies

      Il te manque la moitié du raisonnement : Une IA généralise depuis les critères déterminants qu’ont lui donne. Si ces critères sont discriminants (la pauvreté, la couleur de peau ou le pays d’origine, par exemple), le résultat sera discriminant, et se cacher derrière l’IA comme tu le fais c’est irresponsable : Décider d’un contrôle parce que la personne est pauvre et noir, c’est de la discrimination. Une bonne façon de se questionner c’est de se dire que si un humain le ferait sur ces critères, ça ne serait pas acceptable, c’est pas juste que ça tombe toujours sur truc discriminant.

      Je t’invite à regarder cette vidéo qui développe le sujet.

      • HenriVolney@sh.itjust.works
        link
        fedilink
        Français
        arrow-up
        1
        arrow-down
        2
        ·
        edit-2
        11 months ago

        Après, si tu établis tes critères en fonction du problème étudié, tu vas forcément te retrouver avec une population cible qui répond aux critères. Je pense que les services qui traquent les gros richos qui planquent leur blé à l’étranger utilisent aussi des algorithmes critériés en fonction de la population cible.

        • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
          link
          fedilink
          Français
          arrow-up
          2
          arrow-down
          1
          ·
          11 months ago

          Donc, Zemmour il avait raison de dire qu’il faut cibler plus les personnes non-blanches parce que statistiquement ce sont elles qui… ?

          • HenriVolney@sh.itjust.works
            link
            fedilink
            Français
            arrow-up
            1
            ·
            11 months ago

            Je ne donne raison à personne. J’observe que les administrations profilent les populations en foction de leurs objectifs, que les acteurs de la société civile les forcent à porter un regard critique sur les biais de leurs méthodes et, espérons-le, à les modifier en conséquence. On n’est pas obligé de se balancer les pires comparaisons pour réfléchir et discuter.

            • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
              link
              fedilink
              Français
              arrow-up
              1
              arrow-down
              1
              ·
              11 months ago

              tu vas forcément te retrouver avec une population cible qui répond aux critères.

              Je répondais à ça particulièrement. Pour moi à ce niveau il n’y a plus de discussion, on peut justifier toutes les discriminations et harcellement policiers avec cette rhéorique. Malheureusement en France on a franchi un cap en banalisant ce discours fondamentalement facho.

    • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
      link
      fedilink
      Français
      arrow-up
      3
      ·
      edit-2
      11 months ago

      tu me me parles pathos.

      Non, je te parle d’une réalité politique que tu ne connais pas et que tu ne veux pas prendre en compte, celle de la guerre aux pauvres. Plus les critères ciblent les pauvres et les populations fragiles, plus celles-ci sont précarisés et affaiblis. De la mère célibataire à qui on fait subir des contrôles à son domicile parce qu’elle vit seule, au chômeurs longue durée qui se font engueuler parce qu’il y a des dépenses “suspicieuses” sur leurs relevés de comptes (achats dans des magasins jugés pas assez discount, alcool, etc.). C’est ça le travail de la CAF ? Je te parle de faits qui sont systématiques, documentés, qui traduisent une volonté politique, des consignes.
      Il y a plusieurs défintions qui entrent en ligne pour décrire ces critères et leur application en score de risque : harcèlement, discriminations. Tu ne peux pas séparer les effets moraux et sociaux de critères de surveillance sur la population qui en fait les frais, sinon t’es juste en train de défendre la surveillance généralisée et l’autoritarisme. C’est la même chose avec les contrôles au faciès d’ailleurs… Au lieu de venir insulter les gens en nous traitant de “vierges effarouchées”, intéresse toi à la sociologie un peu.

      Le truc qui me tue c’est que quand il s’agit de la Chine par exemple, les gens comme toi sont les premiers à dire que le crédit social c’est de la dictature. On est en train de faire pareil, mais tant que c’est les pauvres et les immigré⋅es ça ne te pose pas de problèmes ?