Nos neurones se synchronisent-ils ?

Partie 2

Piste noire Le 6 novembre 2017  - Ecrit par  Julien Chevallier, Patricia Reynaud-Bouret Voir les commentaires

Le premier article de cette série présente une méthode statistique utilisée pour détecter les moments où les neurones se synchronisent. Le but de cette seconde partie est de démontrer l’efficacité de cette méthode.

$\newcommand{\prouge}{{\color{red} p_{\color{red}2\color{red}|\color{red}1} }}$
$\newcommand{\pbleu}{{\color{blue} p_{\color{blue}2\color{blue}|\color{blue}0} }}$

Cet article fait suite au premier article de cette série, dont la lecture est un pré-requis pour la suite. Nous voulons ici comprendre dans quelle mesure la méthode présentée dans la partie précédente détecte effectivement des synchronisations.

Introduction

Comme nous l’avons vu dans le première partie, les neurophysiologistes peuvent enregistrer les trains de spikes de plusieurs neurones simultanément. Par discrétisation du temps à une certaine échelle $d$ (par exemple en regardant l’activité des neurones seulement sur des plages de $1$ milliseconde - voir le schéma explicatif du premier article), ces trains de spikes peuvent être modélisés par une suite de $0$ et de $1$. Nous avions vu, dans le précédent article, qu’un train de spikes observé sur une durée $T$ peut être vu comme $n=T/d$ résultats de lancer de pièce.

Rappelons que pour un instant donné, la variable $X_1$ code la présence ($X_1=1$) ou l’absence ($X_1=0$) d’un spike émis par le neurone $1$ (de même, $X_2$ code pour le second neurone). Nous avions noté les probabilités suivantes
\[ \begin{equation}\label{eq:probas:individuelles} {\rm Prob}(X_1=1)=p_{1} \quad \text{ et }\quad {\rm Prob}(X_2=1)=p_{2}. \end{equation} \]
Dans la suite nous ne traiterons que le cas le plus simple de la synchronisation de $2$ neurones.

Rappels

Pures coïncidences

Dans l’article précédent, nous avons obtenu que, dans le cas où les deux neurones ne sont pas synchronisés, la probabilité d’une pure coïncidence est donnée par
\[{\rm Prob}(X_1=1 \text{ et } X_2=1)={\rm Prob}(X_1=1)\times {\rm Prob}(X_2=1)=p_1p_2.\]
Cela correspond à l’indépendance (au sens probabiliste) entre les variables aléatoires $X_1$ et $X_2$. De manière plus imagée, cela correspond au lancer de deux pièces :

  • une pièce associée au neurone $1$ et qui tombe sur pile ($X_1=1$) avec probabilité $p_{1}$,
  • et une pièce associée au neurone $2$ et qui tombe sur pile ($X_2=1$) avec probabilité $p_{2}$.
Remarque :

Les paramètres $p_{1}$ et $p_{2}$ sont fixés à l’avance et ne dépendent pas du résultat du lancer. Lancer les pièces simultanément ou bien l’une après l’autre ne change rien au résultat.

Procédure de test

Nous avons introduit la valeur critique $k_{5\%}$ qui permet de prendre une décision statistique : si le nombre de coïncidences observé, noté $N_{obs}$, est supérieur à la valeur critique, on décrète que, sur la plage de temps considérée, les neurones sont synchronisés. En revanche, si $N_{obs}\leq k_{5\%}$ on décrète qu’il n’y a pas de preuve significative de synchronisation.

Modélisation des synchronisations

On cherche à détecter le phénomène de synchronisation. Comme très souvent en statistique, on ne peut pas observer directement ce phénomène mais simplement ses effets. Nous supposerons ici que la synchronisation se traduit par une augmentation de la probabilité de coïncidences entre les deux neurones.

Pour modéliser cette augmentation de probabilité, nous poursuivons l’analogie avec le lancer de pièces. Cette fois-ci, nous avons besoin de trois pièces distinctes (là où deux pièces suffisaient dans le cas des pures coïncidences) : la première sera utilisée pour le neurone $1$ alors que les deux autres serviront pour le neurone $2$. On verra dans la suite que cela fonctionne lorsque $p_2\geq p_1$. Dans le cas contraire, il faut échanger les rôles des neurones $1$ et $2$.

On effectue successivement deux lancers de pièces de la manière suivante. On lance en premier la pièce associée au neurone $1$ et qui tombe sur pile ($X_1=1$) avec probabilité $p_{1}$. Ensuite, selon le résultat du premier lancer, on choisit une des deux pièces associées au neurone $2$ :

  • si la première est tombée sur pile ($X_1=1$), on utilise une pièce ${\color{red} {\rm rouge}}$ qui tombe sur pile ($X_2=1$) avec probabilité $\prouge$ (lire $p_2$ sachant $1$, version abrégée de $p_2$ sachant que $X_1=1$),
  • si la première est tombée sur face ($X_1=0$), on utilise une pièce bleue qui tombe sur pile ($X_2=1$) avec probabilité $\pbleu$ (lire $p_2$ sachant $0$).
PNG - 122.3 ko
Arbre de probabilités
Le lancer de la première pièce (de couleur neutre) donne la valeur de $X_1$. Selon le résultat, on choisit de lancer la pièce ${\color{blue}{\rm bleue}}$, ou bien la pièce ${\color{red}{\rm rouge}}$, pour connaître la valeur de $X_2$.

La disjonction de cas décrite ci-dessus est un exemple très simple d’arbre de probabilité et de la notion de probabilité conditionnelle : on dit que la valeur $\prouge$ est la probabilité conditionnelle de l’évènement « $X_2=1$ » sachant que l’évènement « $X_1=1$ » s’est produit (en comparaison, $p_2$ est la probabilité de l’évènement « $X_2=1$ » si on ne sait si pas si $X_1=0$ ou si $X_1=1$). Dans cet exemple, on peut utiliser la notation
\[ \prouge={\rm Prob}(X_2=1|X_1=1), \]
qui se lit « Probabilité que $X_2=1$ sachant que $X_1=1$ ».

Remarque :

Si $\prouge=\pbleu= p_2$, le fait que $X_1=0$ ou $1$ n’influence pas la distribution de $X_2$ : les deux variables $X_1$ et $X_2$ sont indépendantes. Dans ce cas, la pièce rouge et la bleue ont le même comportement. Il n’est plus nécessaire de les différencier et on se retrouve dans le cadre plus simple des pures coïncidences rappelé dans la section précédente.

Maintenant que l’arbre de probabilités est bien posé, la probabilité d’observer une coïncidence est facilement calculable. Il suffit de suivre la bonne branche dans l’arbre et de multiplier les probabilités entre elles pour obtenir [1]
\[{\rm Prob}(X_1=1 \text{ et } X_2=1)={\rm Prob}(X_1=1)\times {\rm Prob}(X_2=1|X_1=1)=p_{1} \prouge.\]
Dès lors que $\prouge> p_2$ (la probabilité que le neurone $2$ décharge sachant que le neurone $1$ décharge est supérieure à la probabilité que le neurone $2$ décharge sans savoir que le neurone $1$ décharge ou pas), la probabilité d’observer une coïncidence est plus grande que la probabilité de voir une pure coïncidence, i.e. $p_1p_2$. Cette inégalité est donc caractéristique du phénomène de synchronisation : nous supposerons dans toute la suite que $\prouge\geq p_2$ (sachant que $\prouge=p_2$ correspond au cas de non synchronisation).

Lien entre les paramètres

On ne peut pas choisir $\pbleu$ et $\prouge$ n’importe comment. En effet, la deuxième formule dans l’équation $(\ref{eq:probas:individuelles})$, à savoir ${\rm Prob}(X_2=1)=p_{2}$, impose la relation de consistance suivante,
\[ \begin{equation}\label{eq:consistance:p2} \pbleu (1-p_{1}) + \prouge p_{1}=p_{2}. \end{equation} \]

Démonstration :

On sait déjà que
\[ {\rm Prob}(X_1=1 \text{ et } X_2=1)=p_{1}\prouge. \]
De même, nous avons la formule
\[ {\rm Prob}(X_1=0 \text{ et } X_2=1)={\rm Prob}(X_1=0)\times {\rm Prob}(X_2=1|X_1=0)=(1-p_{1}) \pbleu, \]
et, en utilisant le fait que l’évènement « $X_2=1$ » a lieu uniquement lorsque :

  • l’évènement « $X_1=1 \text{ et } X_2=1$ » a lieu,
  • ou bien l’évènement « $X_1=0 \text{ et } X_2=1$ » a lieu,

on aboutit à la formule suivante [2] :
\[\begin{eqnarray} p_2={\rm Prob}(X_2=1)&=& {\rm Prob}(X_1=1 \text{ et } X_2=1)+ {\rm Prob}(X_1=0 \text{ et } X_2=1) \nonumber\\ &=&\pbleu (1-p_{1}) + \prouge p_{1}. \end{eqnarray}\]

La valeur $\prouge$, qui est comprise entre $p_2$ et $1$, peut s’exprimer par une relation linéaire entre ses deux bornes ($\prouge$ est un barycentre des points $p_2$ et $1$). Plus précisément, on écrira
\[\prouge = p_2+ s (1-p_2),\]
où $s$ est un nombre entre $0$ et $1$ que nous appelons paramètre de synchronisation ($s=0$ code pour le cas « pures coïncidences » et $s=1$ le cas où la synchronisation est « maximale ») [3].

PNG - 6.9 ko
Paramétrisation de $\prouge$
On voit $\prouge$ comme le barycentre des points $p_2$ et $1$ pondérés respectivement par ${\color{grey}{1-s}}$ et ${\color{grey}s}$.

La relation de consistance $(\ref{eq:consistance:p2})$ impose alors
\[\pbleu = p_2 - s \frac{p_1(1-p_2)}{1-p_1}.\]

Remarque :

Il faut $p_2\geq p_1$ pour assurer que $\prouge$ et $\pbleu$ soient entre $0$ et $1$. Quitte à inverser les rôles des deux neurones, nous supposerons dans toute la suite que $p_2\geq p_1$.

Distribution du nombre de coïncidences

Avec la paramétrisation en $s$, la probabilité d’une coïncidence, que nous notons $q_s$, est maintenant donnée par
\[q_s = p_{1}\prouge = p_1p_2+ s p_1(1-p_2).\]

Dans la suite, nous allons avoir besoin de tous les instants $t=1,\dots,n$ auxquels la présence (ou l’absence) de spike a été enregistrée : on rappelle qu’un train de spikes est composé de $n$ cases. Dans la suite nous notons $X_1(t)$ la variable qui code la présence d’un spike pour le neurone $1$ à l’instant $t$ (de même, $X_2(t)$ code pour le second neurone). Voir une coïncidence au temps $t$ équivaut à dire que le produit $X_1(t)X_2(t)$ vaut $1$ et ne pas en voir équivaut à dire que le produit $X_1(t)X_2(t)$ vaut $0$. On peut donc écrire le nombre de coïncidences $N$ comme
\[N=X_1(1)X_2(1) + ... + X_1(t)X_2(t) + ... + X_1(n)X_2(n).\]

Dans la suite, nous considérons uniquement le cas le plus simple où les variables $X_i(t)$ sont indépendantes et homogènes par rapport au temps $t$. Plus précisément, pour tout temps $t$,
\[ \begin{equation} {\rm Prob}(X_1(t)=1)=p_{1} \quad \text{ et }\quad {\rm Prob}(X_2(t)=1)=p_{2}, \end{equation} \]
et si $t_1$ et $t_2$ sont deux instants différents, alors la valeur de $X_i(t_1)$ n’influence pas la valeur de $X_i(t_2)$ et vice-versa. En termes mathématiques, nous dirons que les couples $(X_1(t),X_2(t))$ pour $t=1,\dots,n$ sont des couples de variables de Bernoulli (de paramètres respectifs $p_1$ et $p_2$) indépendants et identiquement distribués (i.i.d.).
En revanche, pour chaque temps $t$, les variables $X_1(t)$ et $X_2(t)$ sont éventuellement dépendantes de telle sorte qu’il y ait synchronisation, comme expliqué ci-dessus.

Dans ce cadre d’indépendance par rapport au temps, les produits $X_1(t)X_2(t)$ sont des variables de Bernoulli indépendantes et identiquement distribuées. de paramètre $q_s$. Le nombre de coïncidences $N$ suit donc [4] une variable binomiale de paramètres $n$ et $q_s$ et

  • sa moyenne vaut : \[m_s=nq_s.\]
  • sa variance, c’est-à-dire la moyenne du carré de l’écart entre la variable et sa moyenne, vaut : \[v_s=nq_s(1-q_s).\]

Variable binomiale

Les valeurs possibles pour la variable $N$ sont tous les entiers compris entre $0$ et $n$ ($N=0$ correspond au cas où il n’y a aucune coïncidence, $N=n$ correspond au cas où il y a une coïncidence à chaque instant). De plus, pour un tel entier $k$,
\[ {\rm Prob}(N=k) = \binom{n}{k} q_s^k (1-q_s)^{n-k}. \]

Connaître la moyenne et la variance nous permet, grâce à l’inégalité de Bienaymé-Tchebychev, de contrôler les erreurs de type 1 et 2 de la méthode (les notions d’erreurs de type 1 et 2 sont expliquées dans le premier article de la série) [5].

Inégalité de Bienaymé-Tchebychev

L’inégalité de Bienaymé-Tchebychev est une inégalité très utile en probabilité. Elle permet de contrôler l’écart entre une variable aléatoire et sa moyenne en fonction de sa variance. Plus précisément, pour toute variable aléatoire $Y$ de moyenne $m$ et de variance $v$, pour tout $x>0$,
\[{\rm Prob}\left(|Y-m|>x\right)\leq \frac{v}{x^2}.\]

Nous allons l’appliquer ici pour contrôler à la fois la valeur critique $k_{5\%}$ et l’erreur de type 2 de la méthode.

Valeur critique et erreur de type 1

Rappelons que la valeur critique $k_{5\%}$ est le plus petit nombre $k$ tel que
\[{\rm Prob}(\mbox{Nombre de pures coïncidences}\geq k) \leq 5\%.\]
Cela revient donc à prendre $N$ le nombre de coïncidences dans le cas où $s=0$ (pas de synchronisation) et à chercher le plus petit $ k$ tel que ${\rm Prob}(N\geq k) \leq 5\%$.

Pour majorer $k_{5\%}$, nous allons donc chercher d’autres valeurs $x$ qui satisfont ${\rm Prob}(N\geq x) \leq 5\%$ et plus particulièrement nous allons chercher un tel $x\geq m_s$ grâce à l’inégalité de Bienaymé-Tchebychev.

Tout d’abord, si $x\geq m_s$ et $N\geq x$, alors $|N- m_s|\geq x-m_s$.

Donc, par l’inégalité de Bienaymé-Tchebychev,
\[{\rm Prob}(N\geq x) \leq {\rm Prob}(|N-m_s|\geq x-m_s)\leq \frac{v_s}{[x-m_s]^2}.\]
Comme on suppose ici $s=0$, on a $m_s=m_0=nq_0$ et $v_s=v_0=nq_0(1-q_0)$ donc on peut trouver un $\tilde{k}$ tel que ${\rm Prob}(N\geq \tilde{k}) \leq 5\%$ en résolvant
\[\frac{nq_0(1-q_0)}{[\tilde{k}-m_0]^2}=0.05.\]
Cela donne en particulier $\tilde{k}=m_0 + \sqrt{\frac{n q_0(1-q_0)}{0.05}},$ qui vérifie bien $\tilde{k}\geq m_s=m_0$.

Comme $k_{5\%}$ est le plus petit $k$ tel que ${\rm Prob}(N\geq k) \leq 5\%$, on obtient donc
\[k_{5\%} \leq \tilde{k}=m_0 + \sqrt{\frac{n q_0(1-q_0)}{0.05}}.\]

L’erreur de type 2

On se place maintenant dans le cas où $s>0$, et donc $N_{obs}=N$ décrit maintenant le nombre de coïncidences observées au cours d’une expérience sur des neurones synchronisés. Dans ce cas, se tromper revient à décréter qu’il n’y a pas de synchronisation. La probabilité de faire une telle erreur (l’erreur de type 2) est
\[{\rm Prob}(N < k_{5\%}).\]
Comme $k_{5\%} \leq \tilde{k}$, on a
\[{\rm Prob}(N < k_{5\%})\leq {\rm Prob}(N \leq \tilde{k}).\]
Supposons alors que le nombre de variables $n$ est suffisamment grand (cela ne pose pas de problème [6] car les résultats théoriques présentés dans la suite sont valides si $n$ est très grand, i.e. $n$ tend vers $+\infty$) pour que
\[m_s=nq_s >\tilde{k}.\]
Cela va nous permettre d’appliquer l’inégalité de Bienaymé-Tchebychev car, dans ce cas, si $N\leq \tilde{k}$, alors $|N-m_s|\geq m_s-\tilde{k}$.
Donc, par l’inégalité de Bienaymé-Tchebychev,
\[\begin{equation}\label{eq:bienayme} {\rm Prob}(N \leq \tilde{k}) \leq {\rm Prob}\left(|N-m_s|\geq m_s-\tilde{k}\right) \leq \frac{v_s}{[m_s-\tilde{k}]^2}. \end{equation}\]
Cela donne donc que l’erreur de type 2 est majorée par
\[\begin{equation} \label{type2} \frac{n q_s(1-q_s)}{[m_s-\tilde{k}]^2}. \end{equation}\]

Le comportement de l’erreur de type 2 en fonction du degré de synchronisation $s$ est illustré par la figure ci-dessous. En particulier, on observe que c’est une fonction décroissante et que la borne ($\ref{type2}$) n’est pas pertinente pour toutes les valeurs de paramètre. Ici, avec $n=1000$, il faut $s\geq 0.3$ pour que la borne soit intéressante.

PNG - 12.3 ko
Erreur de type 2 en fonction du degré de synchronisation
La courbe rouge représente la borne ($\ref{type2}$). La courbe noire représente la proportion de non acceptation de l’hypothèse de synchronisation ($N_{obs}\leq k_{5\%}$) obtenue par simulations via la méthode présentée dans l’article précédent. Ces courbes ont été obtenues avec $n=1000$.

Contrôle de l’erreur de type 2 en pratique

En pratique on ne connait pas le degré de synchronisation $s$. Montrons que pour n’importe quel degré de synchronisation $s>0$, l’erreur de type 2 est négligeable quand le nombre de données est suffisant. Nous allons le faire en adoptant deux points de vue différents.

Rappelons les paramètres et leurs ordres de grandeur par rapport à l’expérience réalisée.

  • Le temps d’observation $T$ est fixé par l’expérience. Le comportement du sujet de l’expérience (le singe de l’expérience décrite dans le premier article) varie assez rapidement. Il faut donc découper la durée de l’expérience en plages de longueur de l’ordre de 100 millisecondes pour espérer que le comportement du sujet soit stable sur chacune des plages. En répétant l’expérience au cours de plusieurs essais, on peut mettre bout à bout les petites plages de temps correspondant par exemple aux 100 ms suivant le signal fantôme pour chacun des essais. On peut ainsi faire grandir $T$, qui correspond alors au temps total observé durant cette phase de l’expérience. Cependant, le nombre d’essais ne pourra jamais dépasser la centaine de fois. On obtient donc, au mieux, une durée totale de l’ordre de 10 secondes.
  • Les neurones ont leur rythme propre. La fréquence correspondante est généralement de l’ordre de 5 à 30 Hz, soit une émission moyenne de 5 à 30 spikes par seconde avec des fluctuations au cours du temps. On peut généralement supposer que sur une plage de longueur 100 ms la fréquence d’émission de spike est quasiment constante. On la note $r_1$ pour le neurone $1$ et $r_2$ pour le neurone $2$.
  • Une fois que les trains de spikes sont enregistrés, il reste un paramètre à régler : l’échelle $d$ à laquelle le train de spikes est discrétisé. Il y a une résolution minimale due à l’enregistrement lui même qui est de l’ordre de 0.1 ms. Cependant, à cette échelle, on n’observe généralement aucune coïncidence. Le paramètre $d$ est donc plutôt de l’ordre de quelques millisecondes (pour fixer les idées, disons 5ms).
  • Une fois $d$ fixé, les probabilités $p_1$ et $p_2$ sont en fait fixées et correspondent aux fréquences propres à chaque neurone. Nous reviendrons sur les liens entre $p_1,p_2$ et $r_1,r_2$ ci-dessous.

Une fois que l’on comprend les ordres de grandeur en présence, on peut raisonner de deux façons.

  1. On imagine que le nombre d’essais augmente mais que la résolution temporelle $d$ reste fixée, ce qui revient à dire que $n$ augmente mais que $p_1$ et $p_2$ sont fixés. En pratique, avec les valeurs données ci-dessus, on a $n=2000$. On peut donc regarder ce qui se passe quand $n$ est grand (tend vers l’infini).
  2. On imagine que le nombre d’essais augmente (donc $T$ augmente) mais que $d$ diminue de concert. On a en effet $T=10 $s mais $d= 0.005 $s ce qui fait que le produit $T\times d= 0.05$ reste petit.

Nous allons regarder ces deux cas dans ce qui suit.

1. Le nombre de variables $n$ tend vers l’infini tandis que $p_1$ et $p_2$ sont fixes

Le premier cas, le plus simple, est quand le temps $T$ d’observation, ou de manière équivalente le nombre de variables $n=T/d$, augmente sans que l’on ne change l’échelle de temps $d$. La probabilité qu’il y ait un spike au temps $t$ à l’échelle $d$ est donc une constante ($p_1$ ou $p_2$ selon que l’on regarde le neurone $1$ ou $2$).

Remarque :

Dans ce régime asymptotique, le nombre moyen de pures coïncidences ainsi que la valeur critique tendent vers l’infini [7], c’est-à-dire
\[ m_0=np_{1}p_{2}\to +\infty \quad \text{ et } \quad k_{5\%}\to +\infty. \]

Alors,
\[m_s-\tilde{k} =n s p_1(1-p_2) - \sqrt{ \frac{ n p_1p_2(1-p_1p_2)}{0.05}}\]
grandit comme une constante (positive) fois $n$ dès que $s>0$. En particulier, on a bien $m_s>\tilde{k}$ dès que $n$ est assez grand et l’on peut utiliser la borne sur l’erreur de type 2 donnée par l’équation $(\ref{type2})$.

Si l’on reporte l’ordre de grandeur précédent dans l’équation $(\ref{type2})$, on voit que le numérateur se comporte comme une constante fois $n$ alors que le dénominateur se comporte comme une constante fois $n^2$.
L’erreur de type 2 est donc majorée par une quantité de l’ordre d’une constante divisée par $n$ et tend donc vers $0$ quand $n$ tend vers l’infini.

La méthode est donc capable de décréter qu’il y a synchronisation lorsque c’est effectivement le cas avec probabilité proche de $100\%$ dès que le nombre de variable $n$ est suffisamment grand.

2. Le temps d’expérience $T$ tend vers l’infini mais $d$ tend vers $0$

En fait, ce n’est pas l’asymptotique précédente qui a un sens par rapport aux données réelles. En effet, comme on l’a vu, l’échelle de temps $d$ est souvent très petite. Il y a alors très peu de pures coïncidences.

La bonne asymptotique consiste alors à dire que la valeur fixe d’un point de vue biologique est le nombre moyen de spikes produit par unité de temps : $r_1$ le nombre de spikes par secondes pour le neurone $1$ et $r_2$ le nombre de spikes par secondes pour le neurone $2$.

À mesure que $d$ tend vers $0$, la résolution temporelle est de plus en plus fine et il est de moins en moins probable d’avoir plus d’un spike par case comme illustré ci-dessous.

PNG - 15.3 ko
Procédure de discrétisation à plusieurs échelles
Plus l’échelle de discrétisation est fine, plus les données son précises (moins de spikes par case), et plus la complexité (nombre de cases) augmente. Si l’échelle est assez fine, alors il y a au plus un spike par case.

Pour comprendre alors le lien entre $p_1,p_2$ et $r_1,r_2$ on peut procéder de la manière suivante : le nombre moyen de spikes observés pendant la durée $T$ pour le neurone $1$ est $r_1\times T$ (par définition de $r_1$), mais peut aussi être vu comme $n\times p_1$ une fois discrétisé [8]. Comme $n=T/d$,
on a alors les relations suivantes quand $d$ tend vers $0$ :
\[ p_1\simeq r_1 d \mbox{ et } p_2\simeq r_2 d.\]
On voit en particulier que ces probabilités tendent vers $0$ avec l’échelle de temps $d$. Par exemple, la probabilité qu’un neurone déchargeant à 10 Hz produise un spike dans une plage de temps de l’ordre de 5 ms est de l’ordre de $5\%$, ce qui est effectivement très faible.

Le nombre moyen de pures coïncidences vérifie alors
\[ m_0=n p_1p_2 \simeq (T/d) \times r_1 d \times r_2 d = r_1 r_2 T d.\]

De l’autre côté, le nombre moyen de coïncidences est
\[ m_s = np_1p_2+ n s p_1(1-p_2)\simeq r_1 r_2 T d + s r_1 (1-r_2 d) T.\]
Il y a donc de l’ordre de $T$ coïncidences quand il y a synchronisation ($s>0$) et $Td$ pures coïncidences, qui est beaucoup plus petit, quand il n’y en a pas ($s=0$).

De la même façon,
\[\tilde{k}=m_0 + \sqrt{\frac{n q_0(1-q_0)}{0.05}}= r_1 r_2 T d + \sqrt{\frac{ r_1 r_2 T d (1-r_1 r_2 d^2)}{0.05}}\] va être de l’ordre de $Td$ et il sera donc beaucoup plus petit que $m_s$, qui est lui de l’ordre de $T$. De plus, $m_s - \tilde{k}$ est de l’ordre de $T$. On obtient donc le comportement asymptotique de la borne obtenue dans l’équation $(\ref{type2})$,
\[ \frac{n q_s(1-q_s)}{[m_s-\tilde{k}]^2} \approx \frac{T}{T^{2}}=\frac{1}{T} \rightarrow 0. \]
Ainsi, l’erreur de type 2 tend vers $0$ quand $T$ augmente. Et donc, la méthode est capable de décréter qu’il y a synchronisation lorsque c’est effectivement le cas avec probabilité proche de $100\%$ dès que le temps d’observation $T$ est assez grand même si l’échelle de temps $d$ est de plus en plus petite.

Cette asymptotique donne, en particulier dans le cas où $Td$ tend vers une constante $a$, une approximation par une loi de Poisson de paramètre $ar_1r_2$ de la distribution du nombre de pures coïncidences. Dans ce cas, la valeur critique $k_{5\%}$ tend vers une constante positive, qui est donnée par la loi de Poisson limite, contrairement au cadre asymptotique 1 dans lequel la valeur critique tend vers l’infini. C’est cette approximation Poissonienne qui a été utilisée dans les premiers travaux de Sonja Grün [G-96].

Conclusion

Si les deux neurones ne sont pas synchronisés ($s=0$) alors on a moins de $5\%$ de chances de se tromper avec cette méthode : c’est ce que l’on a montré dans le premier article en contrôlant l’erreur de type 1. Si les deux neurones sont synchronisés ($s>0$) alors on a très peu de chances de se tromper à condition que le nombre de données soit assez grand : on a montré ci-dessus que l’erreur de type 2 tend vers $0$.

Les dernières avancées dans le domaine essayent en particulier :

  • de généraliser ce type de méthodes à plus de deux neurones [CL-15] ;
  • de se passer de l’approximation Poissonienne lorsqu’il n’est pas possible de supposer que les variables de Bernoulli observées sont indépendantes au cours du temps mais sans que l’on sache précisément quantifier cette dépendance [ABFRB-16] ;
  • d’obtenir des résultats non-asymptotiques en comparaison avec les résultats asymptotiques (valables quand $n$ tend vers l’infini) présentés dans cet article. Pour ce faire, on modélise plus précisément le phénomène de synchronisation et on estime le paramètre de dépendance (voir [KKL-11] ou [RBRT-13]).

Bibliographie

[ABFRB-16] Albert, M., Bouret, Y., Fromont, M., & Reynaud-Bouret, P., Surrogate data methods based on a shuffling of the trials for synchrony detection : the centering issue, Neural Computation, 2016.

[CL-15] Chevallier, J., Laloë, T., Detection of dependence patterns with delay, Biometrical Journal, 2015.

[G-96] Grün, S., Unitary joint-events in multiple-neuron spiking activity : detection, significance, and interpretation, 1996.

[KKL-11] Kass, R.E., Kelly, R. C., & Loh, W.-L., Assessment of synchrony in multiple neural spike trains using loglinear point process models, Annals of Applied Statistics, 2011.

[RBRT-13] Reynaud-Bouret, P., Rivoirard, V., Tuleau-Malot, C., Inference of functional connectivity in Neurosciences via Hawkes processes, 1st IEEE Global Conference on Signal and Information Processing, 2013.

Post-scriptum :

La rédaction d’Images des Mathématiques et les auteurs remercient les relecteurs Jean-Romain, Avner Bar-Hen et Gérard Grancher pour leur relecture attentive et leurs commentaires judicieux.

Article édité par Stéphane Labbé

Notes

[1Cette formule correspond en fait à la définition de la probabilité conditionnelle $\prouge$.

[2Cette formule est connue sous le nom de formule des probabilités totales.

[3C’est ce modèle et ce paramétrage par $s$ qui sont utilisés dans les animations de la partie précédente.

[4Voir la page Wikipédia.

[5En fait, les deux articles de cette série présentent une procédure de test appliquée à la détection de synchronisation. L’hypothèse nulle est la non-synchronisation ($s=0$) et l’hypothèse alternative est la synchronisation ($s>0$). Voir cet article pour plus de précisions sur le vocabulaire des tests statistiques.

[6En pratique, le nombre d’essai des expériences ne permet pas d’avoir accès à un nombre $n$ suffisamment grand. Des recherches actives visent à résoudre ce problème.

[7Pour la valeur critique $k_{5\%}$, on peut la minorer en utilisant l’inégalité de Bienaymé-Tchebychev de manière similaire à ce qui a été fait pour obtenir l’inégalité $(\ref{eq:bienayme})$

[8Cette dernière valeur est exacte uniquement dans le cas où il y a au plus un spike par case, ce qui est très probable si $d$ est suffisamment petit.

Partager cet article

Pour citer cet article :

Julien Chevallier, Patricia Reynaud-Bouret — «Nos neurones se synchronisent-ils ?» — Images des Mathématiques, CNRS, 2017

Commentaire sur l'article

Laisser un commentaire

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?

Suivre IDM