Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Probabilités Discussion :

Covariance semi défini positive


Sujet :

Probabilités

  1. #1
    Membre régulier
    Covariance semi défini positive
    Bonjour,

    Je travail sur mon mémoire de finance, et je n'arrive pas a trouvé une preuve détailler et compréhensible qu'une matrice de covariances et définie semi positive.

    définition matrice semi positive :
    C : matrice covariance.
    (1) et (2) sont équivalents :

    (1)u'Cu>=0 quelques soit le vecteur x non nulle.
    (2)Les valeurs propres de C sont toutes positives ou nulles.

    pour la première proposition j'ai trouvé des exemples comme :
    C par définition est symétrique et donc le produit d'un vecteur et de sa transposé.
    => C=x*x'

    or donc u'Cu=u'xx'u
    or (x'u)'=u'x donc u'Cu=(u'x)(u'x)=s²>=0 quelque soit s appartenant aux réels donc la matrice et semi définie positive

    Je pense que la preuve (1) est bonne, dite moi sinon^^.
    Pour la seconde preuve par contre je suis noyé je n'ai pas fais d'algèbre depuis longtemps, quelqu'un aurait une piste?

    Merci

  2. #2
    Membre confirmé
    La matrice de Covariance est symétrique réelle par construction. Le Théorème Spéctral montre qu'une matrice symétrique réelle est diagonalisable dans une base orthonormale et que son spectre (son ensemble de valeurs propres) est inclus dans R+ (toutes les valeurs positives réelles, 0 inclut). Cette dernière partie est suffisante pour montrer que la matrice est aussi positive semi-définie.

    Dans votre preuve, vous ne pouvez pas considérer que C est de rang 1 (ou moins) lorsque vous écrivez C=x*x' (avec x un vecteur). Vous devez faire la décomposition venant de la diagonalisation : soit (u_i) la base de n vecteurs décrivant la base orthonormale (pour tout i,j dans [1, n], u_i^t u_j = delta_ij où 1 si i=j, 0 sinon) et (e_i) la suite des n valeurs propres dans R+, alors : C = Sum_i^n e_i u_i u_i^t.

  3. #3
    Membre régulier
    Bonjour TNT89,

    Je ne comprend pas ce que vous m'avais dis.

    Je ne suppose pas que C est de rang 1. Je suppose qu'elle est de rang n (pour mes n actifs) et vu que C est diagonale alors on x*x'=C avec x vecteur colonne à n ligne.

  4. #4
    Membre confirmé
    Citation Envoyé par dumbl Voir le message
    Je ne suppose pas que C est de rang 1. Je suppose qu'elle est de rang n (pour mes n actifs) et vu que C est diagonale alors on x*x'=C avec x vecteur colonne à n ligne.
    Non. Lorsque vous écrivez C = x * x^t avec x dans R^n, par équivalence, vous supposez que C est de rang 1 (ou de rang 0 dans le cas, trivial, où votre vecteur x est le vecteur nul). Vous devez utiliser la "décomposition spectrale" de mon précédent message (C = Sum_i^n e_i u_i u_i^t) en lieu et place.

    Le rang d'une matrice est égal à la dimension de l'espace image. Dans ce que vous écrivez, cet espace image est réduit à l'espace généré par le vecteur x, et donc d'au plus une dimension.

  5. #5
    Membre régulier
    C = Sum_i^n e_i u_i u_i^t

    Pouvais vous me traduire ce que vous avez marqué?
    wikipedia :
    "Dans un espace euclidien, une matrice représentant un endomorphisme dans une base orthonormée est symétrique si et seulement si l'endomorphisme est autoadjoint. Le théorème spectral en dimension finie en déduit que toute matrice symétrique à coefficients réels est diagonalisable à l'aide d'une matrice de passage orthogonale, car les valeurs propres d'un endomorphisme autoadjoint sont réelles et ses sous-espaces propres sont orthogonaux."

    Or sachant que c'est une matrice des covariances d'actifs, je sais que les coefficients de la matrices sont réels alors dire que C=x*x' n'est pas faux ou sinon je ne comprend pas.


    OK merci pour la réponse du rang je confondais bêtement avec des scénarios d'actifs indépendant pour savoir si le marché est complet ou non.

  6. #6
    Membre confirmé


    Avec (e_i) les n valeurs propres et (u_i) les n vecteurs propres associés.

    Lorsque vous écrivez C = x * x' (avec x un vecteur dans R^n) vous sous-entendez que votre matrice de covariance est de rang 1 et donc que toutes vos variables aléatoires sont en réalité toutes dépendantes d'une seule source (aléatoire). Ce qui semble extrêmement réducteur (mais pas impossible). Je pense que dans votre contexte c'est faux.

    Évitez le dialecte financier s'il vous plait, surtout sur un forum dédié aux mathématiques. Les personnes qui ne sont pas familières avec (moi y compris) ne pourront pas vous suivre.

  7. #7
    Membre régulier
    Merci pour ta réponse, donc dire qu'une matrice symétrique est généré par le produit d'un vecteur colonne et de sa transposé est faux? Je sais pas où j'ai trouvé cela...

    Cdt
    Dumbl

  8. #8
    Membre confirmé
    Non, ça n'est pas entièrement faux car certaines matrices peuvent être décrites comme cela. Cependant c'est un cas relativement rare. Le cas général, quant à lui, est donné par le Théorème Spectral qui vous dit que toute matrice symétrique réelle peut-être décrite comme la somme pondérée de produit de vecteur colonne par leur transposée, et qu'en plus, d'une part tous ces vecteurs colonnes forment une base orthogonale (ce que vous devez interpréter comme "l'indépendance") et d'autre part, les poids utilisés pour la pondération sont des réels positifs (zéro inclut).

  9. #9
    Membre régulier
    Bon je revois ce week end et je reproposerais des preuves.

    Merci TNT89 pour vos réponses