Ce site est susceptible d'enregistrer des cookies

 ScoopitTopTwitterTopFacebookTop

Technologie

Technologie

Assistants vocaux, voitures autonomes, détection anticipée de cancers... L'intelligence artificielle est progressivement intégrée dans notre vie quotidienne. Rarement humanoïdes, souvent invisibles, ces machines sont de plus en plus amenées à prendre des décisions. Peut-on pour autant les considérer comme responsables de leurs actions ? La réponse est « non » pour le physicien et philosophe Alexei Grinbaum, qui propose dans son livre Les Robots et le Mal (Desclée de Brouwer, 2019) d'intégrer du hasard dans les algorithmes d'IA.

Le 19 mars 2018, aux États-Unis, un véhicule autonome d’Uber provoque la mort d’une piétonne qui traversait une route en dehors d’un passage clouté. La nouvelle a fait le tour du monde et marqué les esprits. Aussitôt, Uber a réagi en suspendant tous les essais de voitures autonomes dans les villes laboratoires (San Francisco, Toronto). Une réaction attendue puisque l'entreprise se devait, dans un premier temps, de rassurer ses utilisateurs.

Vous considérez que la machine ne doit pas être jugée responsable de ses actes. Sur qui retombe alors la responsabilité, en cas de problème ?

Je pense qu’il faut partager la responsabilité entre les différents agents humains qui ont participé à l’élaboration de l’IA. Il y a le programmateur qui écrit le code ; la compagnie qui vend le produit ; l’utilisateur, dont les décisions peuvent guider le système vers tel ou tel comportement ; et de nouveaux agents comme l’entraîneur, soit la personne qui sélectionne les données que l’on fournit à l’IA pour qu’elle s’entraîne.

 

  Source: usbeketrica.com

Découvrir la suite de l'article sur le site d'origine

mardi, 07 mai 2019 00:00

Facebookisation

Au moment où Facebook lance des fonctionnalités de « dating », je suis obligé de confesser un problème de plus en plus fondamental. Et ce problème, ce n’est pas Facebook. Ce sont les réseaux sociaux dont cette plate-forme n’est qu’un exemple. Ces derniers mois je me suis fait avoir par Facebook. J’ai réagit trop fortement, trop rapidement, à un article que je trouvais franchement problématique, voir mauvais. Je pense toujours qu’il l’est. Mais ma réaction était trop vive. Je n’ai pas utilisé le meilleur de ma réflexion pour réagir à l’article. C’était sur Facebook, et je me suis lâché. Mais vraiment lâché.

D’autres cas sont apparus sur mon fil Facebook. Et je suis frappé de nos réactions. On se marre aux dépends des autres, on se massacre par commentaires interposés sans réfléchir, et on poste des articles sans vraiment se poser de questions. Alors qu’a priori nous savons ce que nous devrions faire. Et malgré tout, toujours, en tous temps, les réseaux sociaux font de nous des orcs. Bien sûr qu’on se comprenne bien : les réseaux sociaux ne font jamais de nous quelque chose que nous ne sommes pas. Ils font ressortir le monstre en nous.

Mais il ne se passe pas une journée sans que je ne sois consterné de ce que nous nous permettons de faire en ligne. Des tas de trucs que nous ne nous permettrions jamais de faire en personne. Se moquer les uns des autres. Franchement, je ne le ferais pas. Et pourtant en ligne, pourquoi pas ? Détruire un article en quelques lignes, pas de problème. Mais ferions-nous vraiment cela en personne ? Je ne pense pas.

  Source: www.visiomundus.fr

Découvrir la suite de l'article sur le site d'origine

L'Union européenne a publié de nouvelles lignes directrices sur le développement de l'IA éthique.

L'Union européenne a publié aujourd'hui un ensemble de lignes directrices sur la manière dont les entreprises et les gouvernements devraient développer des applications éthiques de l'intelligence artificielle. Les règles abordent les problèmes troubles et diffus qui affecteront la société à mesure que nous intégrerons l'IA dans des secteurs tels que les soins de santé, l'éducation et les technologies grand public.

Ainsi, par exemple, si un système d'IA vous diagnostique un jour ou l'autre un cancer, les lignes directrices de l'UE voudraient s'assurer qu'un certain nombre de choses se produisent : que le logiciel ne soit pas biaisé par votre race ou votre sexe, qu'il ne passe pas outre aux objections du médecin humain et qu'il donne au patient la possibilité de se faire expliquer son diagnostic.

Pour atteindre cet objectif, l'UE a réuni un groupe de 52 experts qui ont défini sept exigences auxquelles, selon eux, les futurs systèmes d'IA devraient répondre.

  Source: iatranshumanisme.com

Découvrir la suite de l'article sur le site d'origine

Un utilisateur malintentionné peut communiquer avec l'enfant qui porte la montre ou le localiser par GPS, selon la Commission. Le rappel du modèle doit être organisé auprès des vendeurs et des utilisateurs

Un gadget loin d’être inoffensif. La Commission européenne exige le rappel d’une montre connectée pour enfant qui présente de "sérieux risques" pour la sécurité de son propriétaire, a repéré le site britannique The Register. Le modèle concerné est la montre allemande Enox Safe Kid One. Avec un GPS intégré, elle permet aux parents de suivre sur une application les allées et venues de leur enfant et de communiquer avec lui.

  Source: www.bfmtv.com

Découvrir la suite de l'article sur le site d'origine

Dans la Silicon Valley, on rêve d’immortalité. Mais pour certains scientifiques, il s’agit d’un fantasme que la science ne pourra pas réaliser.

BioTeq, une société de technologie, s’est spécialisée dans un service aux entreprises peu banal : implanter des micropuces RFID dans les mains des employés, pour leur permettre d’ « accéder aux bâtiments de l’entreprise et stocker des informations ». Cette pratique est de plus en plus courante, notamment dans les secteurs financiers et techniques. Elle reste actuellement basée sur le volontariat.

Page 1 sur 23

paypal

Information

Les informations, publications et vidéos affichées sur le site du CPDH n'engagent que leurs auteurs. Dans un souci d'informations plurielles, le CPDH les présente mais décline toute responsabilité quant à leur contenu et affirme son indépendance par rapport aux sources dont elles proviennent.