Informations

Qu'est-ce que le spectre de puissance de modulation ?

Qu'est-ce que le spectre de puissance de modulation ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je lis cet article https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4562283/ , mais je n'arrive pas à comprendre ce que MPS ni comment lire les images qui utilisent cette méthode.

Les auteurs disent

Le MPS, au-delà des représentations classiques telles que la forme d'onde et le spectrogramme (Figure 1A et B, panneaux supérieur et central), affiche la puissance temps-fréquence en modulation à travers les dimensions spectrales et temporelles (Figure 1A et B, panneaux inférieurs). Le MPS est devenu un outil particulièrement utile en neurosciences auditives car il fournit une paramétrisation neuronale et écologiquement pertinente des sons.

Je n'ai aucune idée de la signification de puissance temps-fréquence en modulation à travers les dimensions spectrales et temporelles. Quelqu'un peut-il fournir une brève explication à ce sujet et MPS?


Un graphique temps-fréquence, également connu sous le nom de distribution TF, est un spectrogramme, un spectrographe, un sonagramme, un affichage en cascade du son. Ce sont tous des noms différents pour la même chose. Ils ressemblent à ça :

https://www.google.fr/search?q=dolphin+spectrogram&num=100&source=lnms&tbm=isch&sa=X&ved=0ahUKEwiD3vv-9cvdAhUCzhoKHf4jDM0Q_AUIDigB&biw=1429&bih=734

Tout comme la lumière blanche contient de nombreuses longueurs d'onde de couleurs, l'énergie sonore contient des basses, des médiums et des aigus au même moment, un peu comme une vague d'eau a plusieurs tailles d'ondes, l'énergie sonore est la même avec les niveaux de pression acoustique.

La modulation fait référence à la variation d'un signal simple, comme tarzan module sa voix en utilisant une sorte d'effet de trémolo, de même qu'une alarme de voiture, et un oiseau a des effets de grincement très variés avec des effets de trémolo et passe également de grincements en clics en sifflements, spectraux changements dans la qualité timbrale du son. La modulation est un mot scientifique pour les variations des amplitudes et des fréquences d'un signal de communication.

Ils écrivent sur la modulation temporelle et la modulation spectrale (pitch), c'est juste des changements sur les graphiques temps-fréquence.

Le spectre de puissance de modulation est un domaine relativement obscur de la bioacoustique, il tente de généraliser les fluctuations et les modèles de spectres d'intensité et de grincement dans un autre graphique, qui ressemble un peu à un graphique de temps et de fréquence secondaire dérivé du premier graphique de temps et de fréquence du son, sinon un graphique 2D comme dans les illustrations, qui montre la prévalence de la fluctuation du son en tant que moyenne du graphique TF (une prévalence moyenne de la fluctuation du son du spectrographe). ainsi, si la voix de tarzan oscille toutes les secondes, il a une modulation majeure à 1 Hz spectralement et une modulation d'amplitude minimale, et ils représenteront cela sous la forme d'un pic à 1 Hz sur le graphique MPS.

Nous pouvons voir sur cette image que le spectrogramme de la parole humaine en haut à gauche est principalement à 500 Hz, avec quelques sons S et CH à 2000 Hz.

Pour les MPS de la voix humaine, ils ont corrélé les modulations spectrales contre les modulations temporelles. Il est facile de voir que la voix humaine change principalement à environ 1 Hz, comme la voix de Tarzan, car les syllabes et les pauses prennent environ 0,5 à 1 seconde (la moyenne des mots par minute d'un humain est d'environ 50, la moyenne des syllabes par minute est d'environ 120 ). Il est donc facile de voir un pic de modulation temporelle à 1Hz. La chose moins claire est qu'elle est tracée en fonction de la modulation spectrale, qui est de 2-3 octaves de changement, une octave étant un doublement de la vitesse et de la fréquence de l'onde. On peut donc dire que les principales modulations spectrales de la voix humaine se produisent sur 2-3 octaves à une vitesse d'environ 1Hz. Il y a un pic secondaire, qui suggère qu'il y a un changement d'environ 1 octave qui se produit à environ 200-300 Hz. C'est le bourdonnement bourru que vous entendez dans votre propre voix d'homme, il est d'environ 150 Hz et il a environ 0,5 à 1 octave, la fréquence de base de votre voix étant de 150 Hz et diverses 3èmes et 5èmes d'une octave, et une autre octave à 350 Hz, semble être visible sur ce graphique. voix de tarzan : https://www.researchgate.net/profile/Alexandre_Hyafil/publication/283260815/figure/fig2/AS:[email protected]/A-Phase-Frequency-coupling-can-be-mistaken-for-Phase-Amplitude -Coupling-Top-curves-An.png">https://www.youtube.com/watch?v=_FatxGN3vAM


MPS est la transformée de Fourier bidimensionnelle du spectrogramme. En supposant que vous sachiez ce qu'est une transformée de Fourier et un spectrogramme, la méthode MPS consiste à traiter le spectrogramme comme une image sur laquelle appliquer la transformée de Fourier. Ainsi, on peut extraire une estimation de la modulation conjointe sur le domaine fréquentiel et temporel d'un signal. Si j'essaie de fournir une explication intuitive de la façon d'interpréter un MPS, je dirais que cela permet au chercheur de quantifier l'irrégularité d'un signal à travers les bandes de temps et de fréquence.


Voici une explication claire, bravo !

https://journals.plos.org/ploscompbiol/article/figure?id=10.1371/journal.pcbi.1000302.g001


Nous avons systématiquement déterminé quelles modulations spectrotemporelles de la parole sont nécessaires à la compréhension par les auditeurs humains. La compréhension de la parole s'est avérée robuste aux dégradations spectrales et temporelles, mais la pertinence spécifique de dégradations particulières est discutable en raison de la complexité des informations spectrales et temporelles conjointes dans le signal de parole. Nous avons appliqué une nouvelle technique de filtrage de modulation aux phrases enregistrées pour restreindre quantitativement les informations acoustiques et pour obtenir une fonction de transfert de modulation spectrotemporelle conjointe pour la compréhension de la parole, le parole MTF. Pour l'anglais américain, le discours MTF a montré la criticité des basses fréquences de modulation à la fois dans le temps et en fréquence. La compréhension était significativement altérée lorsque les modulations temporelles <12 Hz ou les modulations spectrales <4 cycles/kHz étaient supprimées. Plus précisément, la MTF était passe-bande dans les modulations temporelles et passe-bas dans les modulations spectrales : les modulations temporelles de 1 à 7 Hz et les modulations spectrales <1 cycles/kHz étaient les plus importantes. Nous avons évalué l'importance des modulations spectrotemporelles pour l'identification vocale du genre et avons trouvé une région d'intérêt différente : la suppression des modulations spectrales entre 3 et 7 cycles/kHz augmente considérablement les erreurs d'identification de genre des locuteurs féminins. La détermination de la MTF vocale fournit une méthode supplémentaire pour produire des signaux vocaux avec une bande passante réduite mais une intelligibilité élevée. Une telle compression pourrait être utilisée pour des applications audio telles que la compression de fichiers ou la suppression du bruit et pour des applications cliniques telles que le traitement du signal pour les implants cochléaires.


Comprendre le spectre de puissance par rapport à la densité spectrale de puissance

Ces deux termes sont utilisés de manière interchangeable dans les communautés du traitement du signal et des mathématiques à un niveau conceptuel, il n'y a pas de différence entre ces deux termes. Les deux termes décrivent tous deux comment l'intensité d'un signal variant dans le temps est distribuée dans le domaine fréquentiel. Les deux termes se distinguent parfois par l'entrée dans le domaine temporel qui a été utilisée pour générer la distribution dans le domaine fréquentiel. En d'autres termes, ces deux termes sont liés à d'autres concepts importants du traitement du signal et aident à comprendre les mesures fondamentales qui entrent dans la création d'un spectre de puissance.

Le spectre de puissance et la densité spectrale de puissance sont indépendants du type de signal utilisé pour générer une distribution d'intensité dans le domaine fréquentiel. Un tel signal peut être une mesure de bruit à large bande, un signal analogique harmonique ou un signal à large bande de n'importe quel type. Les mesures sont toujours rassemblées dans le domaine temporel, après quoi elles peuvent être converties dans le domaine fréquentiel pour une analyse plus approfondie.

Calcul du spectre de puissance à bande limitée

Une distinction importante entre le spectre de puissance et la densité spectrale de puissance apparaît lorsque l'on considère le contenu total du signal dans une bande limitée. Cette quantité est parfois appelée spectre de puissance à bande limitée, ou simplement spectre de puissance. Il s'agit probablement de la principale source de confusion autour des termes &ldquopower Spectrum&rdquo et &ldquopower spectraldensity.&rdquo Pour une densité spectrale de puissance S donnée, le spectre de puissance à bande limitée est :

Spectre de puissance à bande limitée par rapport à la densité spectrale de puissance

Unités

Si les unités de votre signal dans le domaine temporel sont V, alors les unités de densité spectrale de puissance sont V2/Hz et les unités du spectre de puissance à bande limitée sont V2. Les densités spectrales de puissance en électronique peuvent être écrites en W/Hz ou dBm/Hz. Notez que l'utilisation d'une unité carrée en électronique est assez importante car la puissance électrique est proportionnelle à V2 ou I2.

Si vous examinez les spécifications de bande passante spectrale de bruit pour de nombreux composants, vous verrez que les unités sont en V/&radicHz, ou en termes d'écart type du niveau du signal. Ici, les unités de V2/Hz pour la densité spectrale de puissance représentent la variance du niveau de tension dans le domaine temporel, qui se trouve être simplement proportionnelle au contenu de puissance électrique pour un signal donné dans le domaine fréquentiel.


Différences entre AM et FM

Au début, les modulations d'amplitude et de fréquence sont utilisées pour transmettre des informations grâce à la technique de variation du signal porteur. Schématiquement, la différence entre ces deux est représentée par :

Selon la définition, en modulation d'amplitude, l'amplitude du signal modulant varie en fonction de l'amplitude du signal porteur. Les signaux AM utilisent des fréquences plus basses pour transmettre des informations sur de longues distances. En modulation de fréquence, la fréquence du signal modulant varie en fonction de l'amplitude du signal porteur. La bande passante des signaux modulés en fréquence est supérieure à celle des signaux modulés AM qui aident à transmettre des signaux vocaux de meilleure qualité.

Modulation de fréquence

La modulation d'amplitude

Avantages et inconvénients de la modulation de fréquence

Avantages

  • Le principal avantage de la FM est sa résilience à tout niveau de déviation du signal. C'est dans la manière dont tout niveau de déviation du signal n'impose pas d'effet sur l'audio, où le signal ne sera pas au niveau auquel le récepteur ne pourra pas faire face. En conséquence, les signaux modulés FM sont parfaits pour les communications mobiles et radio ainsi que pour de nombreuses autres applications portables. De plus, les ondes FM ne sont sujettes à aucune sorte de distorsion. Ainsi, les signaux FM sont idéaux pour améliorer la qualité des transmissions de diffusion.
  • L'autre avantage est qu'il est susceptible de mettre en œuvre une modulation même au stade minimal des émetteurs et qu'il n'est pas nécessaire d'utiliser le type d'amplification linéaire pour améliorer la puissance du signal.
  • Il est encore plus possible d'utiliser les amplificateurs RF non linéaires pour additionner des signaux FM dans un émetteur et ceux-ci sont extrêmement efficaces que ceux des amplificateurs linéaires nécessaires pour les signaux ayant des différences d'amplitude de toute sorte. Cela implique que pour la puissance de sortie fournie, une puissance minimale de la batterie est nécessaire, ce qui montre que les signaux FM sont plus intéressants pour les applications radio bidirectionnelles compactes.

Désavantages

Peu d'inconvénients des signaux FM sont

  • Les démodulateurs FM sont quelque peu compliqués à construire, mais peu pris en compte, car les circuits intégrés radio sont construits avec des démodulateurs internes en eux-mêmes.
  • Comme les signaux FM sont étendus à l'infini, dans certains cas, ils ont besoin de filtres pour réduire l'extensibilité des bandes latérales. En raison de cela, un certain niveau de distorsion est introduit à cause des filtres. C'est donc l'un des inconvénients indirects de la FM.
  • Les signaux FM ont une efficacité spectrale inférieure à celle des autres techniques de modulation.

Applications

Les applications de la transmission FM comprennent

  • Prospection sismique
  • Enregistrement sur bande magnétique
  • Transmissions radar
  • Télémétrie
  • Synthèse musicale
  • Observation des signaux EEG
Comment se fait la modulation de fréquence ?

La FM se fait par le processus de transmission d'un signal porteur avec celui du signal de message, ce qui entraîne la génération d'un signal FM faisant varier la fréquence du signal en fonction de l'amplitude du signal de message.

Comment la bande passante FM est-elle calculée ?

En utilisant la formule de 2(∆f + fi), la bande passante est calculée

Quelle est la formule de l'indice de modulation ?

La formule de l'indice de modulation en FM est ∆f/fi

Quelle est la variation de fréquence ?

Elle est indiquée comme la variation de crête entre les valeurs minimale et maximale de la fréquence instantanée.

Quel est le coefficient de modulation ?

La modulation augmente et diminue la tension au-dessus et au-dessous de la certaine valeur d'une quantité maximale qui est représentée par Eune. Le rapport de Eune/Ec est appelé coefficient de modulation (m).

Même s'il existe des inconvénients, la modulation de fréquence peut être largement utilisée dans de nombreuses applications commerciales et personnelles. En savoir plus sur les concepts de quels sont les autres types et dérivés de modulation de fréquence ?


Spectre étalé et modulation de code du transporteur GPS L1

Une onde porteuse peut être modulée de différentes manières. Les stations de radio utilisent des ondes porteuses modulées. Les signaux radio sont AM, modulés en amplitude ou FM, modulés en fréquence. Lorsque votre radio est réglée sur 105 FM, vous n'écoutez pas réellement 105 MHz malgré les assurances de l'annonceur, c'est bien au-dessus de la portée de l'audition humaine. 105 MHz est juste la fréquence de l'onde porteuse qui est modulée. Ce sont ces modulations qui se produisent qui rendent la parole et la musique intelligibles. Ils arrivent à vous à une fréquence beaucoup plus lente que l'onde porteuse. Les porteuses GPS L1, L2 et L5 auraient pu être modulées de diverses manières pour transporter les codes binaires, les 0 et les 1, qui sont les codes. Ni l'amplitude ni la modulation de fréquence ne sont utilisées dans le GPS. C'est l'altération des phases des ondes porteuses qui les code. C'est la modulation de phase qui leur permet de transporter les codes des satellites vers les récepteurs. Une conséquence de cette méthode de modulation est que le signal peut occuper une bande passante plus large que ce qui serait autrement possible. On dit que le signal GPS a un spectre étalé en raison de sa bande passante intentionnellement augmentée. En d'autres termes, la bande passante globale du signal GPS est beaucoup plus large que la bande passante des informations qu'il transporte. En d'autres termes, alors que L1 est centré sur 1575,42 MHz, L2 est centré sur 1227,60 MHz et L5 sur 1176,45 MHz, mais la largeur de ces signaux prend beaucoup plus de place de chaque côté de ces fréquences que ce à quoi on pourrait s'attendre. Par exemple, le signal de code C/A est étalé sur une largeur d'environ 2,046 MHz, le signal de code P(Y) est étalé sur une largeur d'environ 20,46 MHz sur L1 et le signal L1C à venir sera étalé sur 4,092 MHz comme indiqué dans l'image ci-dessus.

Cette caractéristique offre plusieurs avantages. Il offre un meilleur rapport signal sur bruit, une portée plus précise, moins d'interférences et une sécurité accrue. Cependant, l'étalement de la densité spectrale du signal réduit également sa puissance. La faiblesse du signal rend difficile la réception à l'abri.

Dans tous les cas, la technique de modulation à spectre étalé la plus couramment utilisée est connue sous le nom de modulation par déplacement de phase binaire (BPSK). C'est la technique utilisée pour créer le message NAV, le code P(Y) et le code C/A. Les biphasé binaire la modulation est le passage de 0 à 1 et de 1 à 0 réalisé par des changements de phase de 180º dans l'onde porteuse. En d'autres termes, aux moments où la valeur du code doit passer de 0 à 1, ou de 1 à 0, le changement s'accomplit par une inversion instantanée de la phase de l'onde porteuse. Il est retourné à 180º. Et chacun de ces retournements se produit lorsque la phase de la porteuse est au passage par zéro (la ligne centrale grise au milieu des illustrations d'onde sinusoïdale ci-dessus). Chaque 0 et 1 du code binaire est connu comme un puce de code. 0 représente l'état normal et 1 représente le image miroir Etat.

Le taux de toutes les composantes des signaux GPS sont des multiples du taux standard des oscillateurs. Le débit standard est de 10,23 MHz. Il est connu comme le fréquence d'horloge fondamentale et est symbolisé Fo Par exemple, les porteurs GPS sont 154 fois Fo, ou 1575,42 MHz, 120 fois Fo, ou 1227,60 MHZ, et 115 fois Fo, ou 1176,45 MHz. Ceux-ci représentent respectivement L1, L2 et L5. Les codes sont également basés sur Fo. 10.23 puces de code du code P(Y), 0s ou 1s, se produisent toutes les microsecondes. En d'autres termes, le taux de découpage du code P(Y) est de 10,23 millions de bits par seconde (Mbps), exactement le même que Fo, 10,23 MHz. Le taux d'écaillage du code C/A est 10 fois plus lent que le code P(Y). C'est un dixième de Fo, 1,023 Mbps. Dix puces de code P(Y) se produisent dans le temps qu'il faut pour générer une puce de code C/A. C'est la raison pour laquelle une pseudodistance dérivée d'un code P(Y) est plus précise qu'une pseudodistance de code C/A.


Contenu

Tout signal qui peut être représenté comme une variable qui varie dans le temps a un spectre de fréquences correspondant. Cela inclut des entités familières telles que la lumière visible (perçue comme une couleur), des notes de musique (perçues comme une tonalité), la radio/TV (spécifiée par leur fréquence, ou parfois leur longueur d'onde) et même la rotation régulière de la terre. Lorsque ces signaux sont visualisés sous la forme d'un spectre de fréquences, certains aspects des signaux reçus ou les processus sous-jacents qui les produisent sont révélés. Dans certains cas, le spectre de fréquences peut comprendre un pic distinct correspondant à une composante d'onde sinusoïdale. Et en plus il peut y avoir des pics correspondant aux harmoniques d'un pic fondamental, indiquant un signal périodique qui est ne pas simplement sinusoïdale. Ou un spectre continu peut montrer des intervalles de fréquence étroits qui sont fortement améliorés correspondant à des résonances, ou des intervalles de fréquence contenant une puissance presque nulle comme cela serait produit par un filtre coupe-bande.

En physique, le signal peut être une onde, telle qu'une onde électromagnétique, une onde acoustique ou la vibration d'un mécanisme. Les densité spectrale de puissance (PSD) du signal décrit la puissance présente dans le signal en fonction de la fréquence, par unité de fréquence. La densité spectrale de puissance est couramment exprimée en watts par hertz (W/Hz). [4]

Lorsqu'un signal est défini uniquement en termes de tension, par exemple, il n'y a pas de puissance unique associée à l'amplitude indiquée. Dans ce cas, la "puissance" est simplement calculée en termes de carré du signal, car ce serait toujours proportionnel à la puissance réelle délivrée par ce signal dans une impédance donnée. On pourrait donc utiliser des unités de V 2 Hz -1 pour la PSD et V 2 s Hz -1 pour l'ESD (densité spectrale d'énergie) [5] même si aucune "puissance" ou "énergie" réelle n'est spécifiée.

Parfois, on rencontre un densité spectrale d'amplitude (ASD), qui est la racine carrée de la PSD, l'ASD d'un signal de tension a des unités de V Hz −1/2 . [6] Ceci est utile lorsque le forme du spectre est assez constant, puisque les variations de l'ASD seront alors proportionnelles aux variations du niveau de tension du signal lui-même. Mais il est mathématiquement préférable d'utiliser la PSD, car ce n'est que dans ce cas que l'aire sous la courbe est significative en termes de puissance réelle sur toutes les fréquences ou sur une bande passante spécifiée.

Dans le cas général, les unités de PSD seront le rapport des unités de variance par unité de fréquence donc, par exemple, une série de valeurs de déplacement (en mètres) au cours du temps (en secondes) aura PSD en unités de m 2 / Hz. Pour l'analyse des vibrations aléatoires, les unités de g 2 Hz -1 sont fréquemment utilisés pour la PSD d'accélération. Ici g désigne la force g. [7]

Mathématiquement, il n'est pas nécessaire d'attribuer des dimensions physiques au signal ou à la variable indépendante. Dans la discussion qui suit, le sens de x(t) restera indéterminée, mais la variable indépendante sera supposée être celle du temps.

Densité spectrale d'énergie Modifier

La densité spectrale d'énergie décrit comment l'énergie d'un signal ou d'une série temporelle est distribuée avec la fréquence. Ici, le terme énergie est utilisé dans le sens généralisé du traitement du signal [8] c'est-à-dire que l'énergie E d'un signal x ( t ) est:

La densité spectrale d'énergie est la plus appropriée pour les transitoires, c'est-à-dire les signaux de type impulsion, ayant une énergie totale finie. Fini ou non, le théorème de Parseval [9] (ou le théorème de Plancherel) nous donne une expression alternative pour l'énergie du signal:

est la valeur de la transformée de Fourier de x ( t ) à la fréquence f (en Hz). Le théorème est également vrai dans les cas à temps discret. Puisque l'intégrale du membre de droite est l'énergie du signal, l'intégrande | x^ (f) | 2 >(f) ight|^<2>> peut être interprété comme une fonction de densité décrivant l'énergie contenue dans le signal à la fréquence f . Par conséquent, la densité spectrale d'énergie de x ( t ) est défini comme: [9]


Incertitude des mesures

Comme dans la plupart des mesures de distorsion non linéaire, telles que les mesures d'harmoniques, d'interception de troisième ordre (TOI) et d'inversion de deuxième harmonique (SHI), il faut veiller à ce que les produits d'intermodulation générés en interne n'annulent pas les produits de distorsion du DUT. Cela peut se produire lorsque les produits de distorsion générés en interne sont proches de la même amplitude que les produits de distorsion DUT mais à 180 degrés. déphasées. Lorsque de grandes améliorations peuvent être observées dans les résultats ACP avec de légères modifications de l'atténuation d'entrée ou du niveau d'entrée, c'est la cause la plus probable. Lorsque les amplitudes du DUT et des produits de distorsion générés en interne sont égales, l'incertitude de la mesure va de +6 dB à –l'infini. La plus petite incertitude dans les résultats de mesure peut être maintenue lorsque les produits de distorsion de l'analyseur de spectre sont inférieurs de plusieurs dB aux produits de distorsion du DUT. Cela peut nécessiter l'utilisation d'un analyseur de spectre plus performant dans certains cas pour éliminer ces incertitudes.

Vitesse versus répétabilitéLes analyseurs de signaux Agilent série X disposent d'une fonction intégrée de réglage de l'écrêtage minimal qui peut être utilisée pour régler automatiquement le niveau du mélangeur en fonction du niveau du signal d'entrée. Le niveau du mélangeur est optimisé pour fournir la plage dynamique optimale sans incertitude de mesure excessive.

La plupart des analyseurs de spectre modernes utilisent un détecteur moyen ou quadratique moyen (RMS) pour mesurer la puissance dans les canaux lors de l'exécution d'une mesure ACP à balayage. La variance observée sera donnée comme Eq. 4:

Dans la plupart des cas, la bande passante du canal, la bande passante de résolution (RBW) et l'étendue sont fixées en fonction de la norme ACP mesurée. Le temps de balayage devra être augmenté si des résultats plus reproductibles sont nécessaires. Cela aura un effet négatif sur le temps de mesure global.

Agilent Puissance rapide Option

Les analyseurs de signaux Agilent X-Series disposent d'une option Fast Power qui permet à un utilisateur d'effectuer rapidement des mesures de puissance telles que la puissance du canal, la puissance du canal adjacent, la bande passante occupée et les mesures X-dB (Option FP2). Premièrement, les mesures de puissance sont accélérées dans le matériel en effectuant des calculs FFT (Fast-Fourier-Transform) superposés en temps réel dans un code FPGA (field-programmable-gate-array). Les résultats de chaque FFT sont moyennés ensemble pour fournir le spectre en temps réel dans lequel les résultats de puissance sont calculés. Il s'agit d'une fonctionnalité SCPI uniquement qui permet aux utilisateurs d'effectuer des mesures telles que l'ACP directement dans le matériel. A titre d'exemple, un résultat W-CDMA ACLR peut être demandé par programmation en mode mesure EVM. Pour une telle mesure, un temps de mesure total de 3 ms peut être atteint avec un temps d'acquisition de 1 ms.

La méthode Fast Power améliore la répétabilité car tous les canaux sont mesurés simultanément dans une bande passante beaucoup plus large. A titre d'exemple, la répétabilité de la mesure ACLR balayée dans Fig. 1 peut être calculé. La configuration de mesure utilise un temps de balayage de 3 ms, une RBW de 100 kHz et une bande passante de canal de 3,84 MHz sur une plage de 25 MHz. Cette mesure balayée nécessite un temps global de 13 ms pour l'achèvement. La répétabilité de la mesure balayée peut être calculée en utilisant l'Eq. 4:

Il est maintenant possible de comparer la répétabilité et le temps de mesure de la méthode Fast Power en utilisant un temps d'acquisition de 1 ms et un temps de mesure total de 3 ms à l'exemple balayé. Pour la méthode Fast Power, la relation suivante peut être utilisée pour la bande passante de bruit (NBW) :

Par conséquent, la Puissance rapide la répétabilité est :

En résumé, une mesure Fast Power ACLR peut être effectuée quatre fois plus rapidement et avec une répétabilité améliorée de neuf fois par rapport à une mesure balayée.

Figure 2 représente diverses valeurs de répétabilité pour les temps d'acquisition pour les mesures ACP et Fast Power ACP à réglage balayé. Les lignes bleues et rouges sont les résultats théoriques pour les mesures ACP et Fast Power ACP, respectivement à réglage balayé, à partir de l'Eq. 4.

Les mesures accordées par balayage fourniront toujours une plage dynamique plus élevée car un filtre de fréquence intermédiaire (FI) analogique à bande étroite sera utilisé. Ce filtre de bande passante FI étroite fournit une puissance de crête beaucoup plus faible qui sera observée au niveau du convertisseur analogique-numérique (CAN) de l'analyseur par rapport au moment où toute la bande passante est mesurée en une seule fois, comme dans le cas Fast Power. Si la plage dynamique est une exigence majeure, une mesure ACP à réglage balayé doit être utilisée. Si la vitesse et la répétabilité des mesures sont nécessaires dans un environnement de test automatisé où la plage dynamique maximale n'est pas le facteur dominant, l'option Fast Power de l'analyseur de signaux Agilent X-Series est de loin supérieure aux autres méthodes.

Sommaire

Cet article a couvert un large éventail de problèmes liés à la prise de mesures ACP. À mesure que les normes de modulation évoluent, d'autres mesures, telles que les mesures du masque d'émission spectrale (SEM), permettront aux utilisateurs de mieux comprendre la linéarité de leur DUT. Les mesures effectuées conjointement avec les mesures de distorsion linéaire, telles que les mesures de l'amplitude vectorielle d'erreur (EVM), garantiront que les utilisateurs finaux de cet équipement bénéficient de meilleures communications et d'une utilisation propre du spectre limité.


Qu'est-ce que le spectre de puissance du bruit de quantification ?

Cette série s'inscrit dans la continuité des travaux réalisés dans deux séries précédentes. Le premier a examiné si la combinaison et la séparation en phase et en quadrature (I/Q) devaient être effectuées de manière analogique ou numérique. Les performances des modulateurs et démodulateurs I/Q, ainsi que des convertisseurs analogique-numérique (ADC) et numérique-analogique (DAC), ont été examinées. Nous avons également discuté de ce qui fait la bonne performance d'un lien de communication dans ce contexte.

Les CAN et les DAC sont appelés convertisseurs de données. Étant donné que peu d'informations sur les exigences de performances des CAN et des DAC pour les formes d'onde de communication modernes ont été trouvées, votre auteur a décidé d'examiner ces problèmes. La modélisation appropriée des CAN et des DAC a été discutée dans la deuxième série, y compris des discussions sur les modèles qui utilisent ENOB (nombre effectif de bits) et ENOB plus un polynôme d'intermodulation. Nous avons également examiné la proposition de l'auteur pour un modèle encore plus efficace qui incluait un filtre passe-bas.

Objectif de la série

En examinant les performances des convertisseurs de données, la situation illustrée à la figure 1 est souvent observée.

Figure 1. Schéma fonctionnel simplifié de l'utilisation d'un convertisseur de données

La puissance de bruit totale du convertisseur de données dans la bande passante de Nyquist (BN) est N. Le filtre peut être passe-bande ou passe-bas, avec une bande passante Bo. Habituellement, on suppose que la puissance de bruit du filtre est :

Puissance de bruit du filtre = N(Bo / BN)

Équation 1. Notez que cette équation est valable approximativement pour tout filtre raisonnable qui pourrait suivre l'ADC, à n'importe quelle fréquence centrale. Un &ldquoreasonable filter&rdquo est un filtre qui n'est pas trop étroit.

L'équation 1 suppose que le bruit est blanc ou uniforme en fréquence.

Votre auteur s'est demandé dans quelles conditions cette hypothèse, souvent appelée hypothèse de pseudo bruit de quantification [14], est-elle vraie ?

Les références [3] à [32] couvrent divers aspects de cette question. Pour clarifier les choses, votre auteur a également effectué quelques simulations de convertisseurs de données avec diverses entrées. Les résultats sont rapportés dans cette série.

Il n'a envisagé que la quantification uniforme (toutes les tailles de pas sont égales) car elle est généralement utilisée dans les convertisseurs de données à grande vitesse. De plus, les convertisseurs sigma-delta n'ont pas été pris en compte.

Pour les applications ADC, le gain de la chaîne RF est souvent suffisamment élevé pour que le bruit des composants précédents soit supérieur de 3 à 5 dB au bruit de quantification, de sorte que le spectre de bruit de quantification n'a pas d'importance. Cependant, cela peut augmenter le coût du système en nécessitant plus de gain RF et une plage dynamique plus élevée de l'ADC.

Pour les applications DAC, espérons-le, le bruit du DAC est dominant, et on ne veut pas ajouter de bruit plus tard dans la chaîne juste pour s'assurer que le spectre de bruit transmis est blanc.

Valeurs crête, moyenne et efficace

Il est important de définir le niveau du signal d'entrée. La figure 2 montre une onde sinusoïdale quantifiée avec 5 bits. Le niveau de ce signal est généralement appelé 0 dBFS où FS fait référence à la pleine échelle sur le quantificateur. Mais, les ingénieurs RF traitent généralement des quantités efficaces. Étant donné que la valeur efficace d'une onde sinusoïdale est inférieure de 3 dB à la valeur de crête, l'onde sinusoïdale de la figure 2 est à -3 dBrmsFS, ou 0 dBpeakFS.

Figure 2.

Pour le reste de cette série, les niveaux de signal seront spécifiés en dBrmsFS ou dBpeakFS,

Notez également que, puisque la puissance est le carré de la tension, le rapport de puissance crête-à-moyenne (PAPR) de cette onde sinusoïdale à enveloppe constante est de 3 dB. En fait, le PAPR de tous les signaux à enveloppe constante modulés en phase ou en fréquence, tels que MSK, est de 3 dB.

&ldquoATTENDRE UNE MINUTE!&rdquo pourrait-on dire, cher lecteur. &ldquoEst&rsquot le PAPR d'un signal à enveloppe constante tel que MSK 0 dB ? C'est comme ça que les gens l'appellent.»

En fait, lorsque les gens se réfèrent au PAPR de cette manière, ils se réfèrent au rapport de la puissance de crête de l'enveloppe à la puissance moyenne de l'enveloppe. En particulier, cette référence à PAPR est utilisée pour caractériser l'enveloppe complexe [33] d'un signal. Puisque nous nous intéressons aux tensions réelles de cette série, le PAPR sera la puissance du pic réel divisé par la puissance de la moyenne réelle. Ce PAPR sera supérieur de 3 dB à celui habituellement cité.

Dans le prochain article, nous aborderons le spectre des sorties de convertisseur analogique-numérique (CAN).

Abréviations utilisées

Veuillez utiliser le tableau suivant pour le reste de la série.

Les références

Les références suivantes seront également utilisées dans le reste de la série :

Présentation et motivation

Bruit de quantification avec ou sans effets d'écrêtage

[3] Maloberti, Franco Data Converters Springer Publishing 2007

Spécifique à l'ADC, avec et sans effets d'écrêtage

[4] Lever, K.V. Cattermol, K.W., "Quantising noise spectra," Electrical Engineers, Proceedings of the Institution of , vol.121, n°9, pp.945.954, septembre 1974

Levier, K.V. Cattermole, K.W., "Erratum: Quantising noise spectra," Electrical Engineers, Proceedings of the Institution of, vol.122, n°3, pp.272, mars 1975

[5] Gersho, A, "Principles of quantization," Circuits and Systems, IEEE Transactions on, vol.25, n°7, pp.427, 436, juillet 1978

[6] Gersho, A, "Quantisation," Communications Society Magazine, IEEE, vol.15, n°5, pp.16, 16, septembre 1977

[7] Schuchman, L., "Dither Signals and Their Effect on Quantization Noise," Communication Technology, IEEE Transactions on, vol.12, n°4, pp.162, 165, décembre 1964

[8] Walden, R.H., "Convertisseurs analogiques-numériques et technologies IC associées", Symposium sur les circuits intégrés à semi-conducteurs composés, 2008. CSIC ང. IEEE, vol., n°, pp.1, 2, 12-15 oct. 2008

[9] Walden, R.H., "Performance trends for analog to digital converters," Communications Magazine, IEEE, vol.37, n°2, pp.96, 101, février 1999

[10] Walden, RH, « Comparaison de la technologie des convertisseurs analogiques-numériques », Symposium sur les circuits intégrés à l'arséniure de gallium (GaAs IC), 1994, Technical Digest 1994., 16th Annual , vol., no., pp.217,219, 16- 19 octobre 1994

[11] Walden, R.H., "Analog-to-digital converter survey and analysis," Selected Areas in Communications, IEEE Journal on, vol.17, n°4, pp.539, 550, avril 1999

[12] Morgan, DR, "Effets limitatifs finis pour un processus aléatoire gaussien à bande limitée avec des applications à la conversion A/N," Acoustics, Speech and Signal Processing, IEEE Transactions on , vol.36, n°7, pp.1011 ,1016, juillet 1988

[13] Chow, P.E.-K., "Performance in waveform quantization," Communications, IEEE Transactions on, vol.40, n°11, pp.1737, 1745, novembre 1992

[14] Dardari, D., "Exact analysis of joint clipping and quantization effects in high speed WLAN receivers", Communications, 2003. ICC ༿. IEEE International Conference on, vol.5, n°, pp.3487, 3492 vol.5, 11-15 mai 2003

[15] Gray, R.M., "Quantization noise spectra," Information Theory, IEEE Transactions on, vol.36, n°6, pp.1220,1244, novembre 1990

[16] Echard, J. Watt, M.L., "Le spectre de bruit de quantification d'une sinusoïde dans un bruit coloré", Traitement du signal, IEEE Transactions on , vol.39, n°8, pp.1780,1787, août 1991

[17] He Jing Li Gang Xu Xibin Yao Yan, "Estimation for the quantization noise spectrum of linear digital filter," Communication Technology Proceedings, 2000. WCC - ICCT 2000. International Conference on, vol.1, n°, pp.184 , 187 vol.1, 2000

[18] Bennett, W.R., "Spectra of quantized signaux," Bell System Technical Journal, The, vol.27, n°3, pp.446, 472, juillet 1948

[19] Mohamed, EM, "Technique d'estimation de canal à faible complexité pour la modulation d'enveloppe MIMO-Constant", Technologie et applications sans fil (ISWTA), 2013 IEEE Symposium on, vol., n°, pp.97, 102, 22-25 sept. 2013

[20] Clavier, A G. Panter, PF Grieg, DD, "Distortion in a Pulse Count Modulation System," American Institute of Electrical Engineers, Transactions of the, vol.66, n°1, pp.989, 1005, janv. 1947

Spécifique au DAC, avec et sans effets d'écrêtage

[21] Ling, W.A, "Shaping Quantization Noise and Clipping Distortion in Direct-Detection Discrete Multitone," Lightwave Technology, Journal of, vol.32, n°9, pp.1750, 1758, 1er mai 2014

Effets d'écrêtage uniquement ADC uniquement

[22] Mazo, J.E., "Spectre de distorsion asymptotique du bruit gaussien écrêté, biaisé en courant continu [communication optique]", Communications, IEEE Transactions on, vol.40, n°8, pp.1339, 1344, août 1992

[23] Dakhli, M.C. Zayani, R. Bouallegue, R., "Une caractérisation théorique et une compensation des effets de distorsion non linéaire et une analyse des performances à l'aide d'un modèle polynomial dans les systèmes MIMO OFDM sous le canal d'évanouissement de Rayleigh", Computers and Communications (ISCC), 2013 IEEE Symposium on , vol., n°, pp.000583,000587, 7-10 juillet 2013

[24] Dardari, D. Tralli, V. Vaccari, A, "Une caractérisation théorique des effets de distorsion non linéaire dans les systèmes OFDM," Communications, IEEE Transactions on, vol.48, n°10, pp.1755, 1764, octobre 2000

[25] Giannetti, F. Lottici, V. Stupia, I, "Caractérisation théorique du bruit de distorsion non linéaire dans les transmissions MC-CDMA", Communications radio personnelles, intérieures et mobiles, 2006 IEEE 17th International Symposium on , vol., no., pp.1,5, 11-14 sept. 2006

[26] Van Vleck, J.H. Middleton, D., "Le spectre du bruit écrêté", Actes de l'IEEE, vol.54, n°1, pp.2, 19, janvier 1966

Autres traitements mathématiques pertinents

[27] Ermolova, NY Haggman, S.-G., "Une extension de la théorie de Bussgang aux signaux à valeurs complexes", Symposium sur le traitement du signal, 2004, NORSIG 2004. Actes du 6e pays nordique, vol., n°, pp.45, 48, 11-11 juin 2004

[28] Requicha, Aristides A G, "Valeurs attendues des fonctions de variables aléatoires quantifiées", Communications, IEEE Transactions on , vol.21, n°7, pp.850,854, juillet 1973

[29] Pirskanen, J. Renfors, M., "Quantization and jitter requirements in multimode mobile terminaux," Communications, 2001. ICC 2001, IEEE International Conference on, vol.4, n°, pp.1182, 1186 vol.4 , 2001

[30] Irons, Fred H. Riley, K.J. Hummels, D.M. Friel, G.A, "The noise power ratio-theory and ADC testing," Instrumentation and Measurement, IEEE Transactions on , vol.49, n°3, pp.659,665, juin 2000

[31] Widrow, B., "A Study of Rough Amplitude Quantization by Means of Nyquist Sampling Theory," Circuit Theory, IRE Transactions on, vol.3, n°4, pp.266, 276, décembre 1956

[32] Rowe, H.E., "Memoryless nonlinearities with Gaussian input: Elementary results," Bell System Technical Journal, The, vol.61, n°7, pp.1519, 1525, sept. 1982

[33] VanTrees, Harry L Detection, Estimation, and Modulation Theory, Part III, Radar/Sonar Signal Processing and Gaussian Signals in Noise John Wiley and Sons 1971. Annexe : &ldquoComplex Representation of Bandpass Signals, Systems, and Processes&rdquo AES-1, Numéro : 6, 1979, Page(s) : 840 & ndash 848.

Contenu connexe

En savoir plus sur:

Cette série contient de nombreuses figures du spectre de puissance de l'erreur de quantification dans diverses conditions, et il faut un certain temps pour que « All About Circuits » publie tout cela. La série se terminera par des conditions d'erreur de quantification pour avoir un spectre de puissance uniforme sur la fréquence (bruit blanc). En attendant, il semble prudent de lister les conditions d'erreur de quantification pour avoir un spectre de bruit blanc issu de la série d'articles.

1. Il n'y a absolument aucun écrêtage (débordement) dans le convertisseur de données. L'un de mes signaux de test était le multiplexage par répartition orthogonale de la fréquence (OFDM) qui a un rapport de puissance crête-à-moyenne très élevé. Tant que l'ensemble du signal se trouve dans la plage dynamique de l'ADC (+/-Fs dans ma notation), le spectre de l'erreur de quantification était blanc sur 3,6 fois la bande passante du signal.Cependant, si l'entrée est augmentée de sorte que l'amplitude du signal est d'environ 1,6 dB sur Fs pendant moins de 1 % du temps, la puissance d'erreur de quantification varie d'environ 3 dB sur 3,6 fois la bande passante du signal. Si le signal est encore augmenté de sorte que l'amplitude du signal est d'environ 2,3 dB sur Fs pendant moins de 1 % du temps, la puissance d'erreur de quantification varie d'environ 10 dB sur 3,6 fois la largeur de bande du signal. Même si l'erreur de quantification semble « bruyante », elle n'est pas blanche. Même si c'est pour moins de 1% du temps, cela a un effet significatif sur la blancheur. Si l'erreur n'est pas blanche, la puissance de bruit dans une bande passante B n'est pas égale à la puissance de bruit dans les temps de bande passante de Nyquist (B/Nyquist Bandwidth). Étant donné que les signaux OFDM sont couramment utilisés dans les communications sans fil d'aujourd'hui, c'est un point important.

La condition selon laquelle le spectre de l'erreur de quantification ressemble à du bruit blanc est appelée le modèle de bruit de pseudo quantification (PQN). Le fait que l'écrêtage dans un Analog-to-Digital puisse invalider le PQN a également été souligné dans Dardari, D., « Exact analysis of joint clipping and quantization effects in high speed WLAN receivers, » 8221 Communications, 2003. ICC « 821603 . IEEE International Conference on, vol.5, n°, pp.3487 à 3492 vol.5, 11-15 mai 2003.

2. La fréquence d'horloge du convertisseur de données n'est pas un multiple entier de la fréquence de modulation. Cela a été confirmé dans des exemples où l'horloge du convertisseur de données était et n'était pas un multiple entier du taux de modulation. Pour une entrée MSK (Minimum Shift Keying) en bande de base, un nombre entier (29) d'échantillons ADC par symbole MSK a entraîné un spectre d'erreur d'environ +/- 10 dB par rapport à l'uniforme. Avec 29,1875 échantillons ADC par symbole MSK. L'uniformité du spectre d'erreur était d'environ +/- 2 dB.

3. L'amplitude du signal efficace doit être d'au moins +28 dB de plus qu'un LSB (bit de poids faible). Ceci a été confirmé par les spectres de l'erreur de quantification avec des entrées MSK de +19 dB rms de plus qu'un LSB (la non-uniformité est un spectre d'environ +/- 4 dB), +25 dB rms de plus qu'un LSB (la non-uniformité est spectre d'environ +/- 2 dB), et +38 rms de plus qu'un LSB (pas de non-uniformité) de spectre.


Comprendre les techniques modernes de modulation numérique

La modulation est fondamentale pour toutes les communications sans fil, le processus d'impression des données à transmettre sur la porteuse radio. La plupart des transmissions sans fil sont aujourd'hui numériques, et avec le spectre limité disponible, le type de modulation est plus critique qu'il ne l'a jamais été.

L'objectif principal de la modulation aujourd'hui est de compresser autant de données dans le moins de spectre possible. Cet objectif, connu sous le nom d'efficacité spectrale, mesure la rapidité avec laquelle les données peuvent être transmises dans une bande passante assignée. L'unité de mesure est le bit par seconde par Hz (b/s/Hz). De multiples techniques ont vu le jour pour atteindre et améliorer l'efficacité spectrale.

Amplitude Shift Keying (ASK) et Frequency Shift Keying (FSK)
Il existe trois méthodes de base pour moduler une porteuse radio sinusoïdale : en modifiant l'amplitude, la fréquence ou la phase. Des méthodes plus sophistiquées combinent deux ou plusieurs de ces variations pour améliorer l'efficacité spectrale. Ces formes de modulation de base sont encore utilisées aujourd'hui avec des signaux numériques.

Figure 1 montre un signal numérique série de base de zéros et de uns binaires à transmettre et les signaux AM et FM correspondants résultant de la modulation. Il existe deux types de signaux AM : la manipulation tout ou rien (OOK) et la manipulation par décalage d'amplitude (ASK). Dans Figure 1a, l'amplitude de la porteuse est décalée entre deux niveaux d'amplitude pour produire ASK. Dans la figure 1b, le signal binaire éteint et allume la porteuse pour créer OOK.

AM produit des bandes latérales au-dessus et au-dessous de la porteuse égales au contenu de fréquence la plus élevée du signal de modulation. La bande passante requise est deux fois le contenu de fréquence la plus élevée, y compris les harmoniques pour les signaux de modulation d'impulsions binaires.

La modulation par déplacement de fréquence (FSK) décale la porteuse entre deux fréquences différentes appelées fréquences de marque et d'espace, ou fm et fs(Fig. 1c). FM produit plusieurs fréquences de bande latérale au-dessus et en dessous de la fréquence porteuse. La bande passante produite est fonction de la fréquence de modulation la plus élevée incluant les harmoniques et l'indice de modulation, qui est :

Δf est l'écart ou le décalage de fréquence entre la marque et les fréquences d'espace, ou :

T est l'intervalle de temps bit des données ou l'inverse du débit de données (1/bit/s).

Des valeurs plus petites de m produisent moins de bandes latérales. Une version populaire de FSK appelée minimum shift keying (MSK) spécifie m = 0,5. Des valeurs plus petites sont également utilisées telles que m = 0,3.

Voici deux façons d'améliorer encore l'efficacité spectrale pour ASK et FSK. Tout d'abord, sélectionnez les débits de données, les fréquences porteuses et les fréquences de décalage afin qu'il n'y ait pas de discontinuités dans la porteuse sinusoïdale lors du passage d'un état binaire à un autre. Ces discontinuités produisent des parasites qui augmentent le contenu harmonique et la bande passante.

L'idée est de synchroniser les heures d'arrêt et de démarrage des données binaires avec le moment où la porteuse sinusoïdale effectue une transition en amplitude ou en fréquence aux points de passage par zéro. C'est ce qu'on appelle une phase continue ou un fonctionnement cohérent. ASK/OOK cohérent et FSK cohérent ont tous deux moins d'harmoniques et une bande passante plus étroite que les signaux non cohérents.

Une deuxième technique consiste à filtrer les données binaires avant la modulation. Cela arrondit le signal, allongeant les temps de montée et de descente et réduisant le contenu harmonique. Des filtres passe-bas spéciaux gaussiens et cosinus surélevés sont utilisés à cette fin. Les téléphones portables GSM utilisent largement une combinaison populaire, le MSK filtré gaussien (GMSK), qui permet un débit de données de 270 kbits/s dans un canal de 200 kHz.

Keying par déplacement de phase binaire (BPSK) et modulation par déplacement de phase en quadrature (QPSK)
Un schéma de modulation numérique très populaire, la modulation par déplacement de phase binaire (BPSK), décale l'onde sinusoïdale porteuse de 180° pour chaque changement d'état binaire (Fig. 2). BPSK est cohérent car les transitions de phase se produisent aux points de passage par zéro. La démodulation correcte de BPSK nécessite que le signal soit comparé à une porteuse sinusoïdale de même phase. Cela implique la récupération de la porteuse et d'autres circuits complexes.

Une version plus simple est différentielle BPSK ou DPSK, où la phase de bit reçu est comparée à la phase du signal de bit précédent. BPSK est très efficace sur le plan spectral dans la mesure où vous pouvez transmettre à un débit de données égal à la bande passante ou à 1 bit/Hz.

Dans une variante populaire de la BPSK, la PSK en quadrature (QPSK), le modulateur produit deux porteuses sinusoïdales distantes de 90°. Les données binaires modulent chaque phase, produisant quatre signaux sinusoïdaux uniques décalés de 45° les uns par rapport aux autres. Les deux phases sont additionnées pour produire le signal final. Chaque paire unique de bits génère une porteuse avec une phase différente (tableau 1).

Figure 3a illustre QPSK avec un diagramme de phaseur où le phaseur représente le pic d'amplitude sinusoïdale de la porteuse et sa position indique la phase. Un diagramme de constellation sur la figure 3b montre les mêmes informations. QPSK est très efficace sur le plan spectral puisque chaque phase de porteuse représente deux bits de données. L'efficacité spectrale est de 2 bits/Hz, ce qui signifie que deux fois le débit de données peut être atteint dans la même bande passante que BPSK.

Débit de données et débit en bauds
Le débit de données théorique maximum ou la capacité du canal (C) en bits/s est fonction de la bande passante du canal (B) en Hz et du rapport signal sur bruit (SNR) :

C'est ce qu'on appelle la loi Shannon-Hartley. Le débit de données maximal est directement proportionnel à la bande passante et logarithmiquement proportionnel au SNR. Le bruit diminue considérablement le débit de données pour un taux d'erreur binaire (BER) donné.

Un autre facteur clé est le débit en bauds, ou le nombre de symboles de modulation transmis par seconde. Le terme symbole en modulation fait référence à un état spécifique d'un signal porteur sinusoïdal. Il peut s'agir d'une amplitude, d'une fréquence, d'une phase ou d'une combinaison de celles-ci. La transmission binaire de base utilise un bit par symbole.

Dans ASK, un 0 binaire est une amplitude et un 1 binaire est une autre amplitude. En FSK, un 0 binaire est une fréquence porteuse et un 1 binaire est une autre fréquence. BPSK utilise un décalage de 0° pour un 0 binaire et un décalage de 180° pour un 1 binaire. Dans chacun de ces cas, il y a un bit par symbole.

Le débit de données en bits/s est calculé comme l'inverse du temps de bit (tb):

Avec un symbole par bit, le débit en bauds est le même que le débit en bits. Cependant, si vous transmettez plus de bits par symbole, le débit en bauds est inférieur au débit binaire d'un facteur égal au nombre de bits par symbole. Par exemple, si 2 bits par symbole sont transmis, le débit en bauds est le débit divisé par 2. Par exemple, avec QPSK, un flux de données de 70 Mb/s est transmis à un débit en bauds de 35 symboles/seconde.

Déphasage multiple (M-PSK)
QPSK produit deux bits par symbole, ce qui le rend très efficace sur le plan spectral. QPSK peut être appelé 4-PSK car il existe quatre combinaisons amplitude-phase. En utilisant des déphasages plus petits, plus de bits peuvent être transmis par symbole. Certaines variantes populaires sont 8-PSK et 16-PSK.

Le 8-PSK utilise huit symboles avec des décalages de 45° d'amplitude de porteuse constante entre eux, permettant la transmission de trois bits pour chaque symbole. 16-PSK utilise des décalages de 22,5° des signaux porteurs d'amplitude constante. Cette disposition se traduit par une transmission de 4 bits par symbole.

Alors que la modulation par déplacement de phase multiple (M-PSK) est beaucoup plus efficace sur le plan spectral, plus le nombre de déphasages plus petits est grand, plus le signal est difficile à démoduler en présence de bruit. L'avantage de M-PSK est que l'amplitude de la porteuse constante signifie qu'une amplification de puissance non linéaire plus efficace peut être utilisée.

Modulation d'amplitude en quadrature (QAM)
La création de symboles qui sont une combinaison d'amplitude et de phase peut pousser plus loin le concept de transmission de plus de bits par symbole. Cette méthode est appelée modulation d'amplitude en quadrature (QAM). Par exemple, 8QAM utilise quatre phases de porteuse plus deux niveaux d'amplitude pour transmettre 3 bits par symbole. D'autres variantes populaires sont 16QAM, 64QAM et 256QAM, qui transmettent respectivement 4, 6 et 8 bits par symbole (Fig. 4).

Alors que la QAM est extrêmement efficace du spectre, il est plus difficile à démoduler en présence de bruit, qui est principalement constitué de variations d'amplitude aléatoires. Une amplification de puissance linéaire est également requise. QAM est très largement utilisé dans la télévision par câble, les réseaux locaux sans fil Wi-Fi (LAN), les satellites et les systèmes de téléphonie cellulaire pour produire un débit de données maximal dans des bandes passantes limitées.

Amplitude Phase Shift Keying (APSK)
La modulation par déplacement de phase en amplitude (APSK), une variante à la fois du M-PSK et du QAM, a été créée en réponse au besoin d'un QAM amélioré. Des niveaux plus élevés de QAM tels que 16QAM et au-dessus ont de nombreux niveaux d'amplitude différents ainsi que des déphasages. Ces niveaux d'amplitude sont plus sensibles au bruit.

De plus, ces niveaux multiples nécessitent des amplificateurs de puissance linéaires (PA) qui sont moins efficaces que les non linéaires (par exemple, classe C). Plus le nombre de niveaux d'amplitude est faible ou plus la différence entre les niveaux d'amplitude est petite, plus la possibilité de fonctionner dans la région non linéaire du PA pour augmenter le niveau de puissance est grande.

APSK utilise moins de niveaux d'amplitude. Il organise essentiellement les symboles en deux ou plusieurs anneaux concentriques avec un décalage de phase constant . Par exemple, 16APSK utilise un format PSK à double anneau (Fig. 5 ). C'est ce qu'on appelle 4-12 16APSK avec quatre symboles dans l'anneau central et 12 dans l'anneau extérieur.

Deux niveaux d'amplitude proches permettent à l'amplificateur de fonctionner plus près de la région non linéaire, améliorant ainsi l'efficacité ainsi que la puissance de sortie. L'APSK est principalement utilisé dans les satellites car il s'adapte bien aux PA populaires à tube à ondes progressives (TWT).

Multiplexage par répartition orthogonale de la fréquence (OFDM)
Le multiplexage par répartition orthogonale de la fréquence (OFDM) combine des techniques de modulation et de multiplexage pour améliorer l'efficacité spectrale. Un canal de transmission est divisé en plusieurs sous-canaux ou sous-porteuses plus petits. Les fréquences et les espacements des sous-porteuses sont choisis de manière à être orthogonaux les uns aux autres. Leurs spectres n'interfèrent donc pas les uns avec les autres, donc aucune bande de garde n'est requise ( Fig. 6 ) .

Les données numériques série à transmettre sont subdivisées en canaux parallèles à débit de données plus lent. Ces signaux à débit de données inférieur sont ensuite utilisés pour moduler chaque sous-porteuse. Les formes de modulation les plus courantes sont BPSK, QPSK et plusieurs niveaux de QAM. BPSK, QPSK, 16QAM et 64QAM sont définis avec 802.11n. Des débits de données jusqu'à environ 300 Mbits/s sont possibles avec 64QAM.

Le processus de modulation complexe n'est produit que par des techniques de traitement du signal numérique (DSP). Une transformée de Fourier rapide inverse (IFFT) génère le signal à transmettre. Un processus FFT récupère le signal au niveau du récepteur.

L'OFDM est très efficace spectralement. Ce niveau d'efficacité dépend du nombre de sous-porteuses et du type de modulation, mais il peut atteindre 30 bits/s/Hz. En raison de la large bande passante qu'il occupe généralement et du grand nombre de sous-porteuses, il est également moins sujet à la perte de signal due à l'évanouissement, aux réflexions par trajets multiples et à des effets similaires courants dans la propagation des signaux radio UHF et micro-ondes.

Actuellement, l'OFDM est la forme la plus populaire de modulation numérique. Il est utilisé dans les réseaux locaux Wi-Fi, les systèmes sans fil à large bande WiMAX, les systèmes cellulaires 4G à évolution à long terme (LTE), les systèmes de ligne d'abonné numérique (DSL) et la plupart des applications de communication sur courant porteur (PLC). Pour plus, voir « Multiplexage par répartition orthogonale de la fréquence (OFDM) : tutoriel FAQ ».

Détermination de l'efficacité spectrale
Encore une fois, l'efficacité spectrale est une mesure de la rapidité avec laquelle les données peuvent être transmises dans une bande passante attribuée, et l'unité de mesure est le bit/s/Hz (b/s/Hz). Chaque type de modulation a une mesure d'efficacité spectrale théorique maximale (Tableau 2).

Le SNR est un autre facteur important qui influence l'efficacité spectrale. Il peut également être exprimé en tant que rapport de puissance porteuse sur bruit (CNR). La mesure est le BER pour une valeur CNR donnée. Le BER est le pourcentage d'erreurs qui se produisent dans un nombre donné de bits transmis. Au fur et à mesure que le bruit devient plus important par rapport au niveau du signal, davantage d'erreurs se produisent.

Certaines méthodes de modulation sont plus insensibles au bruit que d'autres. Les méthodes de modulation d'amplitude comme ASK/OOK et QAM sont beaucoup plus sensibles au bruit, elles ont donc un BER plus élevé pour une modulation donnée. Les modulations de phase et de fréquence (BPSK, FSK, etc.) s'en sortent mieux dans un environnement bruyant et nécessitent donc moins de puissance de signal pour un niveau de bruit donné (Fig. 7).

Autres facteurs affectant l'efficacité spectrale
Alors que la modulation joue un rôle clé dans l'efficacité spectrale à laquelle vous pouvez vous attendre, d'autres aspects de la conception sans fil l'influencent également. Par exemple, l'utilisation de techniques de correction d'erreur directe (FEC) peut grandement améliorer le BER. De telles méthodes de codage ajoutent des bits supplémentaires afin que les erreurs puissent être détectées et corrigées.

Ces bits de codage supplémentaires ajoutent une surcharge au signal, réduisant le débit binaire net des données, mais c'est généralement un compromis acceptable pour l'amélioration en dB à un chiffre du CNR. Un tel gain de codage est commun à presque tous les systèmes sans fil actuels.

La compression numérique est une autre technique utile. Les données numériques à envoyer sont soumises à un algorithme de compression qui réduit considérablement la quantité d'informations. Cela permet de réduire le contenu des signaux numériques afin qu'ils puissent être transmis sous forme de flux de données plus courts et plus lents.

Par exemple, les signaux vocaux sont compressés pour les téléphones portables numériques et les téléphones VoIP (Voice over Internet Protocol). La musique est compressée en fichiers MP3 ou AAC pour une transmission plus rapide et moins de stockage. La vidéo est compressée afin que les images haute résolution puissent être transmises plus rapidement ou dans des systèmes à bande passante limitée.

Un autre facteur affectant l'efficacité spectrale est l'utilisation de plusieurs entrées et sorties multiples (MIMO), qui est l'utilisation de plusieurs antennes et émetteurs-récepteurs pour transmettre deux ou plusieurs flux binaires. Un seul flux à haut débit est divisé en deux flux parallèles et transmis simultanément dans la même bande passante.

En codant les flux et leurs caractéristiques de chemin uniques, le récepteur peut identifier et démoduler chaque flux et le réassembler dans le flux d'origine. MIMO améliore donc le débit de données, les performances de bruit et l'efficacité spectrale. Les normes LAN sans fil (WLAN) plus récentes telles que 802.11n et 802.11ac/ad et les normes cellulaires telles que LTE et WiMAX utilisent MIMO. Pour plus, voir « Comment fonctionne MIMO ».

Implémentation de la modulation et de la démodulation
Dans le passé, des circuits uniques implémentaient la modulation et la démodulation. Aujourd'hui, la plupart des radios modernes sont des radios définies par logiciel (SDR) où des fonctions telles que la modulation et la démodulation sont gérées par logiciel. Les algorithmes DSP font le travail précédemment assigné aux circuits modulateurs et démodulateurs.

Le processus de modulation commence lorsque les données à transmettre sont transmises à un dispositif DSP qui génère deux sorties numériques, qui sont nécessaires pour définir les informations d'amplitude et de phase requises au niveau du récepteur pour récupérer les données. Le DSP produit deux flux de bande de base qui sont envoyés à des convertisseurs numérique-analogique (DAC) qui produisent les équivalents analogiques.

Ces signaux de modulation alimentent les mélangeurs avec la porteuse. Il y a un décalage de 90° entre les signaux porteurs vers les mélangeurs. Les signaux de sortie en quadrature résultants des mélangeurs sont additionnés pour produire le signal à transmettre. Si le signal porteur est à la fréquence d'émission finale, le signal composite est prêt à être amplifié et envoyé à l'antenne. C'est ce qu'on appelle la conversion directe. En variante, le signal porteur peut être à une fréquence intermédiaire inférieure (IF). Le signal FI est converti à la fréquence porteuse finale par un autre mélangeur avant d'être appliqué à l'émetteur PA.

Au niveau du récepteur, le signal de l'antenne est amplifié et converti en IF ou directement en signaux originaux en bande de base. Le signal amplifié de l'antenne est appliqué aux mélangeurs avec le signal porteur. Là encore, il y a un décalage de 90° entre les signaux porteurs appliqués aux mélangeurs.

Les mélangeurs produisent les signaux analogiques en bande de base d'origine, qui sont ensuite numérisés dans une paire de convertisseurs analogique-numérique (CAN) et envoyés aux circuits DSP où les algorithmes de démodulation récupèrent les données numériques d'origine.

Il y a trois points importants à considérer. Premièrement, les processus de modulation et de démodulation utilisent deux signaux en quadrature l'un avec l'autre. Les calculs DSP nécessitent deux signaux en quadrature si la phase et l'amplitude doivent être préservées et capturées pendant la modulation ou la démodulation.

Deuxièmement, le circuit DSP peut être une puce DSP programmable conventionnelle ou peut être mis en œuvre par une logique numérique fixe mettant en œuvre l'algorithme. Les circuits logiques fixes sont plus petits et plus rapides et sont préférés pour leur faible latence dans le processus de modulation ou de démodulation.

Troisièmement, le PA dans l'émetteur doit être un amplificateur linéaire si la modulation est QPSK ou QAM pour reproduire fidèlement les informations d'amplitude et de phase. Pour ASK, FSK et BPSK, un amplificateur non linéaire plus efficace peut être utilisé.

La poursuite d'une plus grande efficacité spectrale
Le spectre étant une entité finie, il est toujours rare. La Federal Communications Commission (FCC) et d'autres organismes gouvernementaux ont attribué la majeure partie du spectre de fréquences électromagnétiques au fil des ans, et la majeure partie est activement utilisée.

Des pénuries existent maintenant dans les secteurs de la radio mobile cellulaire et terrestre, empêchant l'expansion de services tels que les débits de données élevés ainsi que l'ajout de nouveaux abonnés. Une approche du problème consiste à améliorer l'efficacité de l'utilisation en serrant plus d'utilisateurs dans le même ou moins de spectre et en obtenant des débits de données plus élevés. L'amélioration des méthodes de modulation et d'accès peut aider.

L'une des zones de spectre les plus encombrées est le spectre de la radio mobile terrestre (LMR) et de la radio mobile privée (PMR) utilisé par le gouvernement fédéral, les gouvernements des États et les agences de sécurité publique locales comme les services d'incendie et de police. Actuellement, ils se voient attribuer un spectre par licence FCC dans le spectre VHF de 150 à 174 MHz et le spectre UHF de 421 à 512 MHz.

La plupart des systèmes radio et des combinés utilisent une modulation analogique FM qui occupe un canal de 25 kHz. Récemment, la FCC a exigé que toutes ces radios passent aux canaux 12,5 kHz. Cette conversion, connue sous le nom de bande étroite, double le nombre de canaux disponibles.

On s'attend à ce que la bande étroite améliore la capacité d'une radio à accéder à un canal. Cela signifie également que plus de radios peuvent être ajoutées au système. Cette conversion doit avoir lieu avant le 1er janvier 2013. Dans le cas contraire, une agence ou une entreprise pourrait perdre sa licence ou se voir imposer une amende. Ce basculement sera coûteux car de nouveaux systèmes radio et de nouveaux combinés sont nécessaires.

À l'avenir, la FCC devrait imposer un nouveau changement des canaux de 12,5 kHz aux canaux de 6,25 kHz, doublant à nouveau la capacité sans augmenter la quantité de spectre attribuée. Aucune date pour ce changement n'a été assignée.

Le nouvel équipement peut utiliser une modulation analogique ou numérique. Il est possible de mettre la FM analogique standard dans un canal de 12,5 kHz en ajustant l'indice de modulation et en utilisant d'autres techniques de réduction de la bande passante. Cependant, la FM analogique dans un canal de 6,25 kHz est impraticable, une technique numérique doit donc être utilisée.

Les méthodes numériques numérisent le signal vocal et utilisent des techniques de compression pour produire un signal numérique série à très faible débit qui peut être modulé dans une bande étroite. De telles techniques de modulation numérique devraient atteindre l'objectif de bande étroite et offrir des avantages supplémentaires en termes de performances.

De nouvelles techniques et protocoles de modulation, notamment P25, TETRA, DMR, dPMR et NXDN, ont été développés pour répondre à ce besoin. Toutes ces nouvelles méthodes doivent répondre aux exigences de la réglementation FCC Part 90 et/ou aux réglementations des normes de l'European Telecommunications Standards Institute (ETSI) telles que TS-102 490 et TS-102-658 pour LMR.

La technologie numérique LMR la plus populaire, P25, est déjà largement utilisée aux États-Unis avec des canaux à 12,5 kHz. Sa méthode d'accès multiple par répartition en fréquence (FDMA) divise le spectre attribué en canaux de 6,25 kHz ou de 12,5 kHz.

La phase I du projet P25 utilise une modulation FSK (4FSK) à quatre symboles. La norme FSK, couverte précédemment, utilise deux fréquences ou « tonalités » pour atteindre 1 bit/Hz. Cependant, 4FSK est une variante qui utilise quatre fréquences pour fournir une efficacité de 2 bits/Hz. Avec ce schéma, la norme atteint un débit de données de 9600 bits/s dans un canal de 12,5 kHz. Avec 4FSK, la fréquence porteuse est décalée de ± 1,8 kHz ou ± 600 Hz pour obtenir les quatre symboles.

Dans la phase 2, un schéma de modulation QPSK compatible est utilisé pour obtenir un débit de données similaire dans un canal de 6,25 kHz. La phase est décalée de ±45° ou ±135° pour obtenir les quatre symboles. Un démodulateur unique a été développé pour détecter le signal 4FSK ou QPSK afin de récupérer la voix numérique. Seuls différents modulateurs à l'extrémité de transmission sont nécessaires pour effectuer la transition de la phase 1 à la phase 2.

La technologie numérique LMR la plus répandue en dehors des États-Unis est TETRA, ou Terrestrial Trunked Radio. Cette norme ETSI est universellement utilisée en Europe ainsi qu'en Afrique, en Asie et en Amérique latine. Son approche d'accès multiple par répartition dans le temps (TDMA) multiplexe quatre signaux numériques de voix ou de données dans un canal de 25 kHz.

Un seul canal est utilisé pour prendre en charge un flux numérique de quatre tranches de temps pour les données numériques de chaque abonné. Cela équivaut à quatre signaux indépendants dans des canaux adjacents de 6,25 kHz. La modulation est π/4-DQPSK et le débit de données est de 7,2 kbits/s par tranche de temps.

Une autre norme ETSI, la radio mobile numérique (DMR), utilise un schéma de modulation 4FSK dans un canal de 12,5 kHz. Il peut atteindre un canal équivalent à 6,25 kHz dans un canal à 12,5 kHz en utilisant un TDMA à deux fentes. La voix est codée numériquement avec correction d'erreur, et le débit de base est de 3,6 kbits/s. Le débit de données dans la bande 12,5 kHz est de 9600 kbits/s.

Une technologie similaire est dPMR, ou norme de radio mobile privée numérique. Cette norme ETSI utilise également un schéma de modulation 4FSK, mais l'accès est FDMA en canaux 6,25 kHz. Le débit de codage vocal est également de 3,6 kbits/s avec correction d'erreur.

Les fabricants de LMR Icom et Kenwood ont développé NXDN, une autre norme pour LMR. Il est conçu pour fonctionner sur les canaux 12,5 ou 6,25 kHz en utilisant la compression vocale numérique et un système FSK à quatre symboles. Un canal peut être sélectionné pour transporter de la voix ou des données.

Le débit de base est de 4800 bits/s. La méthode d'accès est FDMA. NXDN et dPMR sont similaires, car ils utilisent tous les deux 4FSK et FDMA dans des canaux de 6,25 kHz. Les deux méthodes ne sont cependant pas compatibles, car les protocoles de données et les autres fonctionnalités ne sont pas les mêmes.

Étant donné que toutes ces techniques numériques sont similaires et fonctionnent dans des gammes de fréquences standard, Freescale Semiconductor a pu créer une radio numérique à puce unique comprenant l'émetteur-récepteur RF et un processeur ARM9 pouvant être programmé pour gérer n'importe quelle norme numérique. Le système sur puce (SoC) MC13260 peut constituer la base d'une radio de combiné pour n'importe quel protocole, voire plusieurs. Pour plus, voir « La puce rend la radio bidirectionnelle facile.

Un autre exemple de techniques de modulation améliorant l'efficacité spectrale et augmentant le débit de données dans un canal donné est une nouvelle technique de NovelSat appelée modulation NS3. Les satellites sont positionnés sur une orbite autour de l'équateur à environ 22 300 miles de la Terre. C'est ce qu'on appelle l'orbite géostationnaire, et les satellites qui s'y trouvent tournent en synchronisation avec la terre, de sorte qu'ils semblent fixés en place, ce qui en fait une bonne plate-forme de relais de signal d'un endroit à un autre sur terre.

Les satellites transportent plusieurs transpondeurs qui captent le faible signal montant de la terre et le retransmettent sur une fréquence différente. Ces transpondeurs sont linéaires et ont une bande passante fixe, typiquement 36 MHz. Certains des satellites les plus récents ont des répéteurs de canaux à 72 MHz. Avec une bande passante fixe, le débit de données est quelque peu fixe tel que déterminé par le schéma de modulation et les méthodes d'accès.

La question est de savoir comment répondre au besoin d'augmenter le débit de données dans un satellite distant, comme l'exige la demande toujours croissante d'une plus grande capacité de trafic. La réponse réside simplement dans la création et la mise en œuvre d'une méthode de modulation plus efficace du point de vue spectral. C'est ce que NovelSat a fait. Sa méthode de modulation NS3 augmente la capacité de bande passante jusqu'à 78%.

Ce niveau d'amélioration provient d'une version révisée de la modulation APSK abordée précédemment. Une norme de transmission par satellite couramment utilisée, DVB-S2, est une porteuse unique (généralement bande L, 950 à 1750 MHz) qui peut utiliser la modulation QPSK, 8PSK, 16APSK et 32APSK avec différents schémas de correction d'erreur directe (FEC). L'application la plus courante est la transmission vidéo.

NS3 améliore le DVB-S2 en offrant 64APSK avec plusieurs symboles d'amplitude et de phase pour améliorer l'efficacité. Le codage de contrôle de parité à faible densité (LDPC) est également inclus. Cette combinaison fournit un débit de données maximal de 358 Mbits/s dans un transpondeur de 72 MHz. Parce que la modulation est APSK, les PA TWT n'ont pas besoin d'être reculés pour préserver une linéarité parfaite. En conséquence, ils peuvent fonctionner à un niveau de puissance plus élevé et atteindre un débit de données plus élevé avec un CNR inférieur à celui du DVB-S2. NovelSat propose ses unités de modulateur NS1000 et de démodulateur NS2000 pour mettre à niveau les systèmes satellites vers NS3. Dans la plupart des applications, NS3 fournit une augmentation du débit de données par rapport à DVB-S2 pour un CNR donné.

Reconnaissance
Un merci spécial à la directrice marketing Debbie Greenstreet et au directeur technique du marketing Zhihong Lin chez Texas Instruments ainsi qu'à David Furstenberg, président de NovelSat, pour leur aide dans cet article.


Expériences 1 et 2

Matériaux et méthodes

Participants

Trente et un participants (12 femmes) âgés de 19 à 45 ans (M = 24.4, Dakota du Sud = 5,7) ont participé à la première expérience et 32 ​​participants (14 femmes) âgés de 18 à 45 ans (M = 24.2, Dakota du Sud = 5,7) ont participé à la deuxième expérience. Tous les participants étaient des musiciens ayant terminé au moins une formation musicale de niveau universitaire de deuxième année en interprétation, composition ou théorie. Dix-sept des participants ont pris part aux deux expériences (5 femmes). Les participants ont donné leur consentement éclairé, ont eu une audition normale et ont été rémunérés pour leur temps.

Stimuli

Les stimuli étaient cinq arpèges générés à partir d'échantillons de la Vienna Symphonic Library. Dans la première expérience, cinq instruments soutenus (trombone, tuba, saxophone, violoncelle et clarinette) jouant trois hauteurs musicales : Fȳ (avec une fréquence fondamentale de 185,0 Hz), C4 (261,6 Hz) et Fȴ (370,0 Hz) ont été choisis. Cette gamme de hauteurs n'implique pas de grandes variations de timbre entre les trois notes différentes. Dans la deuxième expérience, cinq instruments impulsifs ont été choisis (vibraphone, marimba, harpe, guitare, alto pizzicato) jouant les mêmes hauteurs. Sur la base d'autres travaux en laboratoire (McAdams et al., 2016), nous avons choisi de séparer les instruments soutenus des instruments impulsifs car il aurait été trop évident de les distinguer dans une tâche d'identification. Pour chaque instrument, les trois notes ont été égalisées en volume dans une expérience préliminaire. Leurs durées ont toutes été réduites à 0,5 s avec une enveloppe d'amplitude d'évanouissement en cosinus surélevé de 50 ms pour éviter toute discrimination basée sur la durée. L'attaque a été conservée. Enfin, des arpèges ont été générés en concaténant les trois notes de la plus basse à la plus haute.

Afin de déterminer quelles régions du MPS conduisent à l'identification des instruments de musique, nous avons utilisé une technique de filtrage des sons instrumentaux dans le domaine de la modulation spectrotemporelle (voir Figure 1). Avec cette technique, un son est traité en ne gardant qu'une petite région de son MPS, cette version filtrée est reconstruite, puis si l'information qui reste est pertinente pour l'identification de l'instrument initial est évaluée avec des tests d'écoute. Par conséquent, le MPS est d'abord multiplié par une 𠇋ulle,” une réponse en fréquence du filtre MPS gaussien à deux dimensions g(μs, σs), (μr, σr)(s, r) où μs, μr et σs, σr sont les moyennes et les écarts types dans les dimensions échelle et taux, respectivement :

Il faut noter que le MPS et le filtre g sont composés de quatre quadrants avec des modulations spectrales et temporelles positives et négatives. Par souci de simplicité et comme le filtre est parfaitement symétrique en amplitude et en phase dans les dimensions de modulation spectrale et temporelle, seules des valeurs positives sont présentées dans ce qui suit. Le TFR filtré par MPS Oui(t, f) peut alors être facilement reconstruit par une transformée de Fourier inverse 2D du MPS traité : MPS(s, rg(μs, σs), (μr, σr)(s, r). Noter que Oui(t, f) n'est que la magnitude, n'a pas la phase et ne permet donc pas une reconstruction parfaite de la forme d'onde directement à partir d'une technique de reconstruction standard telle que la méthode de chevauchement-addition (OLA Rabiner et Schafer, 1978). Par conséquent, nous avons plutôt utilisé l'algorithme de Griffin et Lim's (1984) dans une implémentation MATLAB fournie par Slaney (1994) afin de construire de manière itérative un signal dont la magnitude STFT est aussi proche que possible de la Oui(t, f) au sens quadratique. Vingt-cinq itérations conduisent à une reconstruction correcte de la forme d'onde pour un temps de calcul acceptable. La figure 1 résume l'ensemble du processus d'analyse-filtrage-synthèse. Concrètement, la qualité de la reconstruction est évaluée en calculant le rapport d'erreur relatif moyenné en pourcentage ϵ entre le spectrogramme souhaité Oui(t, f) et l'amplitude STFT de la forme d'onde reconstruite Ouib(t, f):

NF et Nt sont respectivement les nombres de cases de fréquence et de temps.

Les fichiers de stimulus ont été normalisés à 𢄣 dB par rapport à une résolution d'amplitude de 16 bits. Dans la première expérience, le niveau maximal des stimuli variait de 58 à 71 dB SPL (pondéré A). Dans la deuxième expérience, le niveau maximal des stimuli variait de 63 à 70 dB SPL (pondéré A). Les stimuli étaient classiquement échantillonnés à 44 100 Hz avec une résolution de 16 bits.

Appareil

Les deux expériences ont eu lieu dans une cabine audiométrique à double paroi IAC modèle 120act-3 (IAC Acoustics, Bronx, NY). Les stimuli ont été présentés sur un casque Sennheiser HD280Pro (Sennheiser Electronics GmbH, Wedemark, Allemagne) à l'aide d'un ordinateur Macintosh (Apple Computer, Inc., Cupertino, CA) avec conversion numérique-analogique sur un système de moniteur Grace Design m904 (Grace Digital Audio, San Diego, Californie). L'interface expérimentale a été programmée dans l'environnement logiciel audio Max7 (Cycling ❴, San Francisco, CA) et la collecte de données a été programmée dans Matlab (The Mathworks, Inc., Natick, MA) interagissant via le protocole de données utilisateur (UDP).

Procédure

Les participants ont d'abord effectué un audiogramme standard à sons purs pour assurer une audition normale avec des seuils d'audition de 20 dB HL ou mieux à des fréquences espacées d'un octave dans la plage de 250 20138 000 Hz (Martin et Champlin, 2000 ISO 389𠄸, 2004) . La tâche était 5-Alternative Forced Choice (5-AFC). Dans chaque essai, les participants ont été invités à reconnaître l'instrument qui jouait les arpèges parmi les cinq instruments. Il leur a été demandé de répondre le plus rapidement possible après avoir entendu les sons afin qu'ils répondent le plus intuitivement lorsque les sons ont été dégradés par le processus de filtrage. L'expérience a commencé par une session d'entraînement de 15 essais (5 instruments × 3 répétitions) au cours de laquelle les participants ont effectué la tâche avec les sons originaux non traités. Après avoir terminé la session de formation, les participants ont commencé l'expérience principale, qui était composée de 480 essais (5 instruments × 96 filtres). Pour chaque instrument, le MPS a été filtré avec 96 filtres gaussiens g(μs, σs), (μr, σr) avec les écarts types suivants : σr = 5 Hz et σs = 4 cycles/Hz chevauchement de 75 % le long de chaque dimension (12 vitesses et 8 modulations spectrales, voir Figure 2). Ces écarts types ont été déterminés par des tests empiriques afin de fournir un bon compromis entre un échantillonnage précis et un nombre raisonnable de filtres pour l'échantillonnage du MPS. Le rapport d'erreur logarithmique moyen (cf. équation 2) pour les 480 sons s'élevait à 10,25 %. Ainsi, dans chaque essai, l'un des cinq arpèges d'instruments a été traité avec un filtre et le participant a dû reconnaître l'instrument d'origine. L'ordre de présentation des 480 essais a été randomisé pour chaque participant.

Figure 2. Échantillonnage du spectre de puissance de modulation par 96 filtres gaussiens dans le plan des taux d'échelle. Les points indiquent la valeur centrale et les cercles l'écart type de la distribution gaussienne 2D.

L'analyse des données

Pour tous les participants et pour les cinq instruments, une matrice de confusion a été calculée et les scores d'association ont été testés par rapport au niveau de chance avec un t-test. Les p-les valeurs ont été ajustées avec des corrections de Bonferroni pour des tests multiples. L'analyse des données qui a suivi a été inspirée par la méthode dite des 𠇋ubbles” proposée par Gosselin et Schyns (2001). Dans chaque essai, si le son était correctement associé à l'instrument, le filtre MPS était ajouté à une matrice CorrectMask. Dans tous les essais, chaque filtre MPS a été ajouté à une matrice TotalMask. Pour chaque participant, un ProportionMask a été dérivé en divisant CorrectMask par TotalMask. Si aucune région n'avait de signification perceptive particulière pour la reconnaissance, ProportionMask serait homogène. Au contraire, si certaines régions étaient plus importantes pour la reconnaissance, elles auraient des valeurs plus élevées que les autres régions du ProportionMask. Notons que notre méthode diffère de celle de Gosselin et Schyns (2001), qui était initialement utilisée pour déterminer les parties les plus saillantes d'un visage pour la reconnaissance du genre et de l'expressivité. Bien qu'ils aient utilisé une méthode adaptative qui ajustait le nombre de bulles pour converger vers une reconnaissance correcte de 75 %, nous n'avons utilisé ici que des bulles uniques afin de déterminer leur contribution indépendante à l'identification de l'instrument. Étant donné que les filtres MPS se chevauchent, les masques de proportion résultants représentent l'importance relative de chaque région du MPS pour l'identification de cet instrument. Afin de déterminer quelles régions sont les plus pertinentes pour l'identification de chaque instrument, un t-Un test entre les valeurs ProportionMask et la valeur moyenne du ProportionMask (α = 0,05) a été appliqué pour chaque instrument et entre les participants pour calculer un SalienceMask. D'où le p-les valeurs de ces tests ont été ici utilisées comme mesure de la pertinence de chaque valeur de modulation spectrotemporelle : plus le p-valeurs, plus la modulation spectrotemporelle est saillante. La signification statistique de chaque modulation spectrotemporelle a également été déterminée et correspond au DiagnosticMask de Gosselin et Schyns (2001). Ici, nous avons considéré qu'un bac du SalienceMask est significatif lorsque le p-valeur est inférieure à 0,05. Le DiagnosticMask est un masque binaire défini sur 1 ou 0 lorsque le SalienceMask est significatif ou non, respectivement. La description de tous les masques décrits précédemment est résumée dans le tableau 1.

Tableau 1. Résumé des différents masques calculés pour l'analyse des régions saillantes du MPS pour chaque instrument.

Afin de révéler les régions de modulation spectrotemporelles les plus saillantes, nous avons d'abord calculé le SalienceMask pour tous les instruments, puis pour chaque instrument séparément.De plus, lorsqu'un instrument est significativement confondu avec un autre, la même analyse est effectuée pour générer un ConfusionMask en substituant le masque correctement associé dans le CorrectMask par ceux de l'instrument avec lequel il a été confondu. Ce masque révèle les régions spectrotemporelles dans lesquelles un instrument est identifié à tort comme un autre.

Résultats

Matrices de confusion

Les tableaux 2 et 3 présentent les matrices de confusion moyennes entre les participants des deux expériences. Tous les instruments ont été reconnus au-dessus du hasard dans les deux expériences [p < 0,001–Trombone : t(30) = 12.84, = 2,31, Clarinette : t(30) = 16.28, = 2,92, tuba : t(30) = 12.31, = 2,21, violoncelle : t(30) = 13.84, = 2,48, Saxophone : t(30) = 9.82, = 1,76 pour l'expérience 1, et p < 0,001𠅊lto Pizzicato : t(31) = 15.30, = 2,70, Guitare : t(31) = 8.02, = 1,41, harpe : t(31) = 11.49, = 2,03, Marimba : t(31) = 13.02, = 2,30, Vibraphone : t(31) = 10.57, = 1,86 pour l'expérience 2]. De plus, dans l'Expérience 1, le tuba, le violoncelle et le saxophone étaient significativement confondus avec le trombone [t(30) = 5.91, p < 0,001, = 1,06], saxophone [t(30) = 1.75, p < 0,05, = 0,31] et violoncelle [t(30) = 3.84, p < 0.01, = 0,69], respectivement. Dans la deuxième expérience, la guitare, la harpe, le marimba et le vibraphone ont été significativement confondus avec la harpe [t(31) = 4.32, p < 0,001, = 0,76], guitare [t(31) = 3.69, p < 0,001, = 0,65], vibraphone [t(31) = 2.59, p < 0.01, = 0,45] et marimba [t(31) = 2.35, p < 0,05, = 0,41], respectivement.

Tableau 2. Matrice de confusion en pourcentage de réponse moyennée entre les participants pour l'expérience 1 (sons soutenus).