lundi 13 octobre 2025

Cybersécurité, Intelligence artificielle, Régulation, Santé numérique, Éthique tech, Innovation

 Tech Update – 13 octobre 2025

Cybersécurité, IA, régulation et innovation : ce qui bouge cette semaine


Cybersécurité en crise : Oracle et Discord ciblés
Deux fuites majeures secouent la tech cette semaine, rappelant les risques croissants liés à la centralisation des données sensibles.

Des dizaines d’entreprises ont vu leurs données exfiltrées via une faille zero-day dans Oracle E-Business Suite, exploitée depuis juillet 2025 par le gang Clop, lié à la Russie. La vulnérabilité, corrigée seulement début octobre, permettait un accès sans identifiant ni mot de passe. Parmi les données volées figurent des dossiers RH, des informations clients et des profils de dirigeants. Google a publié des indicateurs techniques pour aider les entreprises à détecter une compromission, tandis qu’Oracle, après avoir minimisé l’incident, a fini par reconnaître l’ampleur de la menace.

Parallèlement, Discord fait face à un cauchemar : un groupe de hackers a publié des selfies avec pièces d’identité officielles, adresses e-mail, numéros de téléphone et localisations approximatives de 70 000 utilisateurs. Ces documents avaient été collectés dans le cadre d’un système de vérification d’âge imposé au Royaume-Uni. Les attaquants tentent désormais d’extorquer la plateforme, menaçant de rendre l’ensemble des données publiques. L’affaire relance le débat sur la légitimité de la collecte de documents d’identité par des applications sociales.

L’IA au travail : Amazon contre-attaque, OpenAI promet plus de neutralité
La guerre de l’IA professionnelle s’intensifie. Amazon lance Quick Suite, une plateforme « agente » conçue comme un collègue virtuel pour les knowledge workers. Connectée à plus de 1 000 applications, de Slack à Salesforce en passant par Snowflake et Oracle, elle permet de rechercher, analyser, générer des rapports ou automatiser des tâches via des commandes en langage naturel. AWS la présente comme « tout ce que vous voudriez faire avec ChatGPT au travail… mais que vous ne pouvez pas ». Un essai gratuit de 30 jours est disponible.

De son côté, OpenAI affirme que GPT-5 est son modèle le moins biaisé à ce jour. Selon une étude interne partagée avec Axios, il réduit de 30 % les biais politiques par rapport aux versions précédentes. Testé sur 500 questions classées selon leur orientation idéologique, le modèle reste neutre sur les requêtes objectives, mais peut encore « s’emballer » face à des prompts émotionnellement chargés. OpenAI promet de publier ses méthodes d’évaluation pour favoriser la transparence.

Régulation, éthique et responsabilité des plateformes
Les pressions politiques et juridiques sur les géants tech ne faiblissent pas. New York City a déposé une plainte historique contre les principaux réseaux sociaux, les accusant de nuire délibérément à la santé mentale des jeunes via des fonctionnalités addictives. La ville exige des réparations et des changements structurels dans la conception des applications.

Dans un autre registre, Apple continue de faire débat avec sa politique d’App Store. L’entreprise a récemment supprimé une application nommée Eyes Up, conçue pour archiver des vidéos documentant des abus de l’ICE. Son objectif était de préserver des preuves en vue de procès. Apple l’a classée dans sa récente répression contre les applications de repérage, suscitant des critiques sur la censure de la documentation citoyenne.

Innovations grand public : santé, hardware et usage des enfants
Apple poursuit son virage santé : la fonction d’alerte d’hypertension de l’Apple Watch est désormais disponible au Canada, rejoignant plus de 150 pays. Cette fonction, potentiellement vitale, analyse les données du capteur optique pour détecter des anomalies de pression artérielle.

Côté hardware, Google lance les Pixel Buds 2a, ses premiers écouteurs abordables depuis plus de quatre ans. Positionnés comme les « Pixel 10 des écouteurs », ils visent à démocratiser l’expérience audio intelligente.

Mais l’innovation soulève aussi des questions éthiques. Une enquête de CNET révèle que 42 % des parents estiment mal gérer l’exposition de leurs enfants, âgés de 5 à 12 ans, aux chatbots IA. De plus en plus d’enfants interagissent quotidiennement avec des assistants conversationnels, souvent sans supervision.

Même dans le commerce, l’IA transforme l’expérience : Google déploie une fonctionnalité permettant d’« essayer » virtuellement des chaussures via la réalité augmentée et des modèles génératifs, sans même enfiler une paire de chaussettes.

Faits divers tech : quand l’IA sert à mal faire
Dans une affaire inquiétante, les autorités de Los Angeles ont arrêté un suspect dans les feux de forêt de Palisades de janvier 2025. Selon Axios, l’individu aurait utilisé ChatGPT pour générer des images réalistes de villes en flammes, qu’il partageait en ligne. Bien que l’outil n’ait pas causé l’incendie, son usage illustre comment l’IA peut alimenter la désinformation ou glorifier la destruction.

En bref
L’IA n’est peut-être pas encore une bulle, mais la Banque d’Angleterre et le FMI appellent à la prudence face à la survalorisation des promesses technologiques. YouTube assouplit ses règles : certains comptes bannis pour désinformation, notamment liée à Trump, pourraient être réexaminés. Apple réorganise ses équipes Santé, intégrant désormais cette division aux Services, tandis que la supervision de l’Apple Watch est scindée entre hardware et logiciel.

Cette semaine confirme une tendance claire : la tech avance vite, mais les risques sécuritaires, éthiques et juridiques avancent encore plus vite.

Aucun commentaire:

Enregistrer un commentaire