(...)
AB: Mais depuis le 9/11 ils ont créés le système actuelle de surveillance que Snowden a révélé, justifié comme une réponse au 9/11, pour l'empêcher d'arriver encore. Est-ce que l'incompétence de maintenent est encore la même que l'incompétence avant le 9/11?
WB: Tout est basé sur des
harengs rouges. Tous les argument qu'ils utilisent sont des
harengs rouges.
AB: Pouvez-vous expliquer ça? Car on aurait pensé, bien, maintenant, qu'avec autant qui est fait, ça doit être au minimum une variété différente d'incompétence.
WB: Non, c'est la même. Tout ce dont elle dépend, c'est d'un humain reconaissant quelque chose. C'est où ils échouent. Je veux dire, on ne peut pas collecter des téraoctets tout les jours et s'attendre à des humains de trouver les données qui sont importantes hors de ces téraoctets. C'est pourquoi ils ont lancé l'initiative « big data » de la maison blanche, qui solicite l'industrie de concevoir des algorithmes qui vont automatiquement aller à travers les données et trouver les informations importantes dans de larges bases de données, de manière à ce que des gens peuvent regarder à ce qui est important. Mais on a résolu le problème 15 ans auparavent en disant qu'il n'y a pas de raison de collecter tout. Ça noye votre capacité d'identifier ce que vous avez besoin de savoir. Et c'est anticonstitutionel dans ses conséquences. Ce qu'ils font vraiment, c'est empiler de l'information à propos de tout le monde pour faire appliquer la loi plus tard, ce n'est pas primairement à propus du terrorisme.
AB: Je suis perplexe par ça, ça me frappe que ce qui manque c'est du renseignement humain. Je pensais que ce qui allait mal pour le moment c'était une trop grande confiance sur les machines.
WB: C'est l'exact opposé. Le problème est que les gens ne peuvent pas gérer le volume et aussi des inconsistences entre les analystes, ils n'ont pas tous nécessairement la même compréhension globale du problème, donc ils n'y regardent pas de la même manière. C'est un autre facteur, qui a affaire avec la fragilité humaine et l'inconsistence − et l'épuisement à travailler des monts de données. C'est pourquoi vous ne pouvez pas dépendre sur les gens. Vous avez à faire la plupart de l'analyse automatiqument par code. C'est ma thèse entière avant le 9/11, en fait allant aussi loin que les années 80, quand on a commencé ces trucs automatisés. Vous devez utiliser des automates pour avoir les donnés nécessaires des personnes impliquées.
Pour l'efficacité opérationnele, vous devez avoir une attaque dirigée vers des cibles connues et des choses qui tombent dans une proximité proches d'elles et de leur réseaux sociaux. Ça forme une zone de suspicion. C'est basé sur quelques règles — comme, si vous avez un téléphone satellite et que vous êtes dans les montagnes d'afghanistan ou les jungles de colombies, c'est très probables que vous êtes un terroriste ou un dealer. Si vous visiter régulièrement des endroits qui promouvoient le jihad ou la violence contre les US, ça définirait aussi des zones de suspicion. C'est à l'opposé de prendre le monde entier, qui est ce qu'ils sont en train de faire. Vous ne prenez que dans ces zones avec une sélection ciblée d'information. Le problème est la sélection des données, pas la collecte de ces dernières.
La collecte tue leur analyses, car elle les ensevlit sous tant de données. Quand vous faites une approche sélective, une attaque ciblée, ça fait un environment riche pour les analystes, et aussi ça mène à un point où le volume est gérable. Sinon ce n'est pas gérable et c'est le problème.
(...)
Partager