ACTUALITES
ACTUALITES

DES DECODEURS NUMERIQUES TESTES AVEC TAKT ET RIGUEUR

Par Jean-Baptiste le Goff, intégrateur de TAKT Engine, et Olivier Brisseau, ingénieur R&D, Sogeti High Tech / agence de Rennes

Avant d’entrer sur le ring, une nouvelle box doit faire la preuve de sa fiabilité – sinon, les clients renverraient dans les cordes leur opérateur. Pour toute version matérielle ou logicielle d’un décodeur numérique, il faut donc, au-delà de la validation fonctionnelle d’un équipement technologique, s’assurer que les flux audio et vidéo ne produisent pas de « macro blocs » (pavés pixellisés), d’écrans noirs, de « glitches » (saturations sonores), ou encore de désynchronisations entre son et image. Il faut également garantir que les menus interactifs déclenchés par la télécommande fonctionnent et s’affichent correctement sur l’écran, en gérant en temps réel l’incrustation de vignettes et de textes.

Des tests automatisés

Ces essais fastidieux, qui existent également pour valider des programmes informatiques, des applications Web ou des systèmes embarqués, sont souvent réalisés « à la main ». Avec, comme risques inhérents, le fait que le technicien ne respecte pas scrupuleusement le scénario de tests, ou que le processus n’intervienne qu’une fois quand l’erreur potentielle peut apparaître à la 200ème ou 1 000ème répétition d’une commande.
Il nous est donc apparu indispensable de fournir à nos clients une solution qui industrialise et fiabilise leurs tests, et qui leur fournisse des rapports complets, sur la base d’informations caractérisées. De là est née, en 2007, notre solution TAKT Engine. Connecté à n’importe quel équipement électronique ou ordinateur, l’outil dispose d’une interface graphique pour importer des images, du son ou des données, définir, puis exécuter des scénarios de tests automatisés.

Si l’on en revient au monde de l’audiovisuel et des box, TAKT Engine récupère les signaux numériques des décodeurs, en émulant l’infrarouge d’une télécommande afin de « jouer » autant de fois que nécessaire le scénario de validation. Notre solution scrute ainsi la qualité du son et de l’image, le passage d’une chaine à l’autre, l’accès au menu interactif ou aux paramètres du décodeur. Pour parvenir à un tel résultat, nous effectuons des prétraitements sur les signaux (suppression des bruits, mise en forme et capture de l’image), des analyses (colorimétrie, reconnaissance de caractères, trames vidéo, niveau sonore) et des post-traitements (comparaison d’images, de sons, recherche d’une vignette ou d’un texte dans l’image).

Palette d’outils

En quelques années, nous avons développé une panoplie d’une vingtaine de modules de traitement, tels que :

  • La capture et la comparaison d’image entre les signaux d’entrée et de sortie du décodeur, afin de valider le seuil qualitatif retenu par l’opérateur.
  • La détection de contours des composants graphiques.
  • Le filtrage de bruit numérique entre plusieurs images suite à leur acquisition.
  • La gestion de masque de zones dans des images (incrustations, logos).
  • La sélection d’une partie de l’image ou encore l’insertion d’image dans un plan large.
  • La binarisation du texte (le passer en noir et blanc pour mieux le détecter).
  • La détection de niveaux sonores et leur qualité (pas de coupure, de saturation ou de rupture de synchronisation)…

Pour cela, nous effectuons en amont une veille sur les dernières recherches en matière de traitement du signal. Sur cette base académique, nous concevons et testons nos algorithmes à l’aide de Matlab. Une fois validés, ils sont compilés et intégrés dans nos bibliothèques de traitement d’images. Selon la complexité du sujet, ce processus prend de quelques jours (ce fut le cas lorsqu’un client nous demanda de détecter automatiquement les silences) à trois mois de recherche et développement (pour le repérage d’une vignette dans une image, en tenant compte de la transparence des incrustations et en utilisant une méthode de corrélation croisée par filtres – plutôt que pixel par pixel).

Nouvelles voies / voix de recherche

Nous planchons actuellement sur deux nouveaux algorithmes majeurs. Le premier porte sur la reconnaissance de sons dans l’aéronautique, afin de détecter des messages d’alerte dans l’environnement bruyant d’un cockpit. À l’instar de ce que fait Shazam pour la musique, nous analysons l’empreinte numérique du son pour capturer les alertes parmi les bruits ambiants et pouvoir affirmer qu’ils ont bien été diffusés.
Le second consiste à détecter automatiquement la langue d’un programme audiovisuel. Cela implique de distinguer les sons voisés (sons contenant une voyelle, qui proviennent des cordes vocales) en fonction des bandes de fréquence par langue, puis d’identifier les corrélations. Mais, langage oblige, ce sera un travail de longue haleine…

todo todo