Info, dépêche ou communiqué de presse


société :

SONY DEPTHSENSING SOLUTIONS

mardi 19 décembre 2017 à 9h00

SoftKinetic devient Sony Depthsensing Solutions


La société belge entre dans une nouvelle phase de développement au sein du géant mondial de l'électronique

BRUXELLES, le 19 décembre 2017 /PRNewswire/ -- Deux ans après son acquisition, SoftKinetic devient Sony Depthsensing Solutions.

http://mma.prnewswire.com/media/620226/Sony_Logo.jpg [http://mma.prnewswire.com/media/620226/Sony_Logo.jpg]

« Cette transition est l'aboutissement de notre travail en tant que filiale de Sony ces dernières années », déclare Akihiro Hasegawa, PDG. « Nous sommes honorés de faire partie intégrante de la société leader mondiale du secteur de la détection d'image, et nous continuerons de travailler en direction de l'intégration de notre technologie DepthSense® dans des produits destinés aux secteurs du mobile, de la robotique et de l'automobile à travers le monde. »

SoftKinetic est en effet leader dans le domaine des technologies de vision 3D et de reconnaissance des gestes : la société délivre constamment des solutions de pointe en matière de détection 3D et de traitement, grâce au développement de capteurs 3D CMOS, de conceptions de référence de caméras 3D, de kits de développement logiciel, d'algorithmes, et d'applications destinées à la reconnaissance des gestes, à la numérisation d'objets, au contrôle automobile, et à la réalité augmentée/réalité virtuelle. Autant de solutions qui sont désormais conçues sous le nom de Sony Depthsensing Solutions.

« Nous attendons beaucoup de la technologie de détection de profondeur », explique Satoshi Yoshihara, directeur général principal de Sony Semiconductor Solutions Corporation, « à l'heure où nous poursuivons le développement du domaine des sens pour les machines, en les dotant d'une vision similaire à la vision humaine. »

Parmi les accomplissements convaincants dans ce domaine figurent l'intégration de la technologie et du logiciel de reconnaissance des gestes DepthSense® dans des véhicules haut de gamme, ainsi que la récente intégration du module de caméra et du logiciel DepthSense® conçus par la société basée à Bruxelles dans le nouveau robot de divertissement de Sony « aibo ». « Très prochainement, les machines, y compris les automobiles, seront capables de détecter, reconnaître et réagir face aux êtres humains de manières que nous ne pensions possibles que dans la fiction, » ajoute Akihiro Hasegawa. L'équipe basée à Bruxelles s'engage en effet à élever à un niveau supérieur d'évolution non seulement les produits électroniques grand public, mais également les robots et les automobiles.

« Nous sommes persuadés que la technologie de détection de profondeur 3D révolutionnera la manière dont interagissent les humains et les machines dans un avenir proche, et cette conviction n'est que renforcée par la confiance que Sony accorde à Sony Depthsensing Solutions pour mener cette (r)évolution, » conclut Hasegawa.

Contact presse

Laetitia Fernandez, directrice principale du marketing
Laetitia.Fernandez@sony.com [mailto:Laetitia.Fernandez@sony.com]
+32.474.92.07.63

À propos de Sony Depthsensing Solutions

Sony Depthsensing Solutions est un leader dans le secteur des technologies de vision 3D et de reconnaissance des gestes. Les capteurs et caméras 3D CMOS à temps de vol DepthSense®, ainsi que les intergiciels avancés, fournissent des capacités de vision 3D de pointe pour un large éventail de secteurs tels que les jeux, la réalité augmentée/réalité virtuelle, les PC, les mobiles, et l'automobile. Pour en savoir plus sur Sony Depthsensing Solutions, rendez-vous sur http://www.sony-depthsensing.com [http://www.sony-depthsensing.com/].

Logo : http://mma.prnewswire.com/media/620226/Sony_Logo.jpg [http://mma.prnewswire.com/media/620226/Sony_Logo.jpg]

Photo: http://mma.prnewswire.com/media/620226/Sony_Logo.jpg

Web site: http://www.sony-depthsensing.com/

© 2002-2026 BOURSICA.COM, tous droits réservés.

Réalisez votre veille d’entreprise en suivant les annonces de la Bourse

Par la consultation de ce site, vous acceptez nos conditions (voir ici)

Page affichée mardi 5 mai 2026 à 21h13m56