Les drones bon marché, AI, rendent la surveillance de drone omniprésente

S'il vous plaît partager cette histoire!
L'IA en tant que service appliqué aux drones bon marché signifie que tout organisme d'application de la loi peut désormais disposer de sa propre flotte de drones pour espionner les citoyens. Bien sûr, ils attraperont des contrevenants de temps en temps, mais les droits et la vie privée des civils innocents seront bafoués. ⁃ Éditeur TN

Abordables technologie grand public a rendu la surveillance peu coûteuse et un logiciel d’IA standardisé l’a rendue automatique.

Ces deux tendances ont fusionné cette semaine, lorsque le fabricant de drones DJI en partenariatJuin 5 avec Axon, la société qui fabrique des armes Taser et des caméras de surveillance pour le corps de la police, pour vendre des drones aux services de police locaux aux États-Unis. Maintenant, non seulement la police locale a-t-elle accès aux drones, mais les séquences de ces caméras volantes seront automatiquement analysées par les systèmes d'intelligence artificielle non divulgués au public.

Les séquences seront téléchargées ou diffusées sur le nuage numérique d’Axon pour les caméras de police, comme le caméras corporelles Il vend actuellement, où il peut être analysé par l'IA d'Axon et utilisé pour tout, du suivi des foules à la recherche et au sauvetage, la société écrit sur son site Internet.

Cela semble vague, mais AI recherche publiée Deux jours plus tôt, des universitaires indiens et britanniques ont montré comment un tel système de drones pourrait être utilisé. Le journal, intitulé "Eye in the Sky", explique comment utiliser les images de drones pour détecter des "individus violents" en temps réel.

Pour former l'IA, les chercheurs ont piloté un drone pour capturer des images 2,000 de personnes prétendant se blesser mutuellement. Mais comme les chercheurs n’utilisaient pas de données réelles et mettaient soigneusement en scène les informations analysées par l’IA pour comprendre la différence entre la violence et le mouvement humain normal, rien ne garantit que cela fonctionnerait bien dans le monde réel, David Sumpter, auteur de En infériorité numérique: explorer les algorithmes qui contrôlent notre viea écrit sur Medium.

"Ce que l'algorithme a fait est de classer les individus avec les mains ou les jambes en l'air comme violents", a écrit Sumpter. D'autres, comme le faucon de l'éthique de Google Meredith Whittaker, tweeté que la recherche était erronée et que «AI fait face à une crise éthique croissante».

Autres chercheurs, y compris Google (pdf) et Facebook, ont également effectué des recherches approfondies pour tenter de résoudre le même problème de suivi de la façon dont les gens se déplacent et de ce que ces mouvements pourraient indiquer.

Mais les chercheurs "Eye in the Sky" tentent d'associer certaines poses à des intentions. Les chercheurs ne discutent pas de faux positifs pour des actions qui pourraient être mal interprétées comme de la violence, telles que se battre, vider une mouche de l'épaule de quelqu'un ou saisir quelqu'un qui tombe.

Indépendamment des questions entourant la légitimité de l'IA, The Verge rapports que les chercheurs ont obtenu l'autorisation de tester la technologie lors de deux festivals en Inde en octobre.

Avec $ 160 pour un Drone perroquet À l'instar de l'équipe «Eye in the Sky» utilisée et de quelques centimes pour la plate-forme AI cloud d'Amazon, toute personne disposant d'une expérience en matière de codage aurait pu créer un système similaire. Même adolescence et agriculteurs de concombre construisent leurs propres systèmes d'IA.

Lire l'histoire complète ici…

S'ABONNER
Notifier de
invité

1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires