L'Europe va-t-elle encore une fois copier la dictature modèle chinoise ?! Comme pour le QR code lors du Covid ou la censure des contenus en ligne ?!
![]()
L'Europe va-t-elle encore une fois copier la dictature modèle chinoise ?! Comme pour le QR code lors du Covid ou la censure des contenus en ligne ?!
![]()
La « théorie de l'Internet mort » prend vie avec le lancement de SocialAI, une application de médias sociaux alimentée par l'IA.
Elle suggère que la majorité des activités sociales en ligne sont artificielles et conçues pour manipuler les utilisateurs
La théorie de l’Internet mort, une théorie du complot qui suggère que la majorité des activités sociales en ligne sont artificielles et conçues pour manipuler les utilisateurs, a récemment pris une nouvelle dimension. Une extension de cette théorie du complot est l'hypothèse qu'Internet va être submergé par le contenu généré par des algorithmes, notamment avec les avancées sur les agents conversationnels. Cette théorie est devenue encore plus pertinente avec le lancement de SocialAI, une application de réseaux sociaux où les utilisateurs interagissent exclusivement avec des chatbots IA. Disponible sur l’App Store d’iPhone, cette application a suscité des critiques acerbes dès son lancement.
Qu’est-ce que la théorie de l’Internet mort ?
La théorie de l’Internet mort postule que la plupart des interactions en ligne sont générées par des bots et des algorithmes plutôt que par de véritables êtres humains. Selon cette théorie, ces interactions artificielles sont utilisées pour influencer les opinions, les comportements et les décisions des utilisateurs.
Si elle a été au départ reléguée au rang de théorie du complot, elle paraît de plus en plus conforme au réel. Josh Yoshija Walter, professeur de transformation numérique à la Haute école spécialisée Kalaidos ainsi qu'à l'université de Berne, et auteur de l'article Artificial influencers and the dead internet theory, nous le confirme. « Quand cette théorie a vu le jour, nous avions encore besoin des humains pour créer des contenus de qualité, l'IA n'était pas suffisamment avancée. Mais avec le perfectionnement des grands modèles de langage, il est beaucoup plus réaliste de penser qu'Internet pourrait devenir un lieu rempli de contenus générés par des systèmes d'IA. À ce stade, la création de contenus comme les influenceurs artificiels n'est pas totalement automatisée, mais je pense qu'elle le sera bientôt. » Selon un rapport de l'agence européenne de police criminelle Europol, 90 % des contenus du Web pourraient être générés par IA d'ici 2025.
Vient alors SocialAI
Lundi, le développeur de logiciels Michael Sayman a lancé une nouvelle application de réseau social peuplé d'IA, appelée SocialAI, qui semble donner vie à cette théorie du complot, en permettant aux utilisateurs d'interagir uniquement avec des chatbots d'IA plutôt qu'avec d'autres humains. L'application est disponible sur le magasin d'applications de l'iPhone, mais jusqu'à présent, elle fait l'objet de critiques virulentes.
Àgé de 28 ans, Michael Sayman a précédemment occupé le poste de chef de produit chez Google, et il a également oscillé entre Facebook, Roblox et Twitter au fil des ans. Dans un billet d'annonce sur X, Sayman explique qu'il rêvait de créer ce service depuis des années, mais que la technologie n'était pas encore au point. Pour lui, il s'agit d'un outil qui peut aider les personnes seules ou rejetées :
« J'ai passé des années à vouloir créer une application grand public, ce qui a longtemps été impossible. Aujourd'hui, la technologie a enfin rattrapé ma vision. Je vous présente SocialAI, un réseau social privé où vous recevez des millions de commentaires générés par l'IA qui vous offrent un retour d'information, des conseils et des réflexions sur chaque message que vous publiez.
« SocialAI est plus qu'un projet de plus pour moi - c'est l'aboutissement de tout ce à quoi j'ai pensé, obsédé et rêvé depuis des années. J'ai toujours voulu créer quelque chose qui ne se contente pas de montrer ce qui est possible avec la technologie, mais qui aide aussi les gens d'une manière réelle et tangible. SocialAI est conçu pour aider les gens à se sentir écoutés et pour leur offrir un espace de réflexion, de soutien et de retour d'information qui agit comme une communauté soudée.
« Cette application est un peu de moi - mes frustrations, mes ambitions, mes espoirs et tout ce en quoi je crois. C'est une réponse à toutes les fois où je me suis sentie isolée, ou comme si j'avais besoin d'une oreille attentive, mais que je n'en avais pas. Je sais que cette application ne résoudra pas tous les problèmes de la vie, mais j'espère qu'elle sera un petit outil qui permettra à d'autres de réfléchir, de grandir et de se sentir vus ».
Fonctionnement de SocialAII've spent years wanting to build a consumer app that was impossible for a long time. Now the tech has finally caught up to my vision.
— Michael Sayman (@michaelsayman) September 17, 2024
Introducing SocialAI, a private social network where you receive millions of AI-generated comments offering feedback, advice & reflections on… pic.twitter.com/zSEFL1dlCz
Vous souvenez-vous de la dernière fois où vous avez publié une prise de position pertinente sur les médias sociaux et où vous n'avez obtenu aucun engagement ou avez été victime de trolls ? Désormais, vous pouvez éviter cela grâce à un nouveau « réseau social » rempli de chatbots d'IA ineptes qui pourraient débattre avec vous, vous attaquer ou même vous dire des choses gentilles si vous le souhaitez (ce sera à vous de choisir).
SocialAI se distingue par ses fonctionnalités uniques qui permettent aux utilisateurs de personnaliser leurs interactions en ligne. Les utilisateurs peuvent choisir parmi différents types de followers IA, chacun ayant des caractéristiques et des comportements spécifiques. Les utilisateurs peuvent choisir entre les « partisans », les « intellos », les « sceptiques », les « visionnaires » et les « ideators » (qui pourrait être traduit par « concepteurs »). Ensuite, d'innombrables chatbots sur ces thèmes remplissent les réponses à vos messages. Par exemple, les « partisans » sont programmés pour encourager et soutenir les publications des utilisateurs, tandis que les « sceptiques » posent des questions critiques et remettent en question les affirmations des utilisateurs. Cette personnalisation permet aux utilisateurs de créer une expérience en ligne qui correspond à leurs préférences et à leurs besoins.
Ces robots de conversation répondent ensuite aux messages des utilisateurs par de brefs commentaires et réactions sur presque tous les sujets, y compris des textes « Lorem ipsum » dépourvus de sens.
Parfois, les robots sont trop serviables. Sur Bluesky, un utilisateur a demandé des instructions sur la façon de fabriquer de la nitroglycérine à partir de produits chimiques ménagers courants et a reçu plusieurs réponses enthousiastes de bots détaillant les étapes, bien que plusieurs bots aient fourni des recettes différentes, dont aucune n'est peut-être tout à fait exacte.
SocialAI apparaît comme une sorte de blague, ou peut-être une sorte de méta-commentaire sur le concept des médias sociaux et de l'engagement bon marché, en particulier après que le créateur Michael Sayman a expliqué de manière utile : « Maintenant, nous pouvons tous savoir ce que ressent Elon Musk après avoir acquis Twitter pour 44 milliards de dollars, mais sans avoir à dépenser 44 milliards de dollars ». Il précise également que le site est « conçu pour aider les gens à se sentir écoutés », et qu'il s'agit ostensiblement d'un moyen d'aider les gens à éviter de se sentir isolés.
Réactions et controverses
L’application a été critiquée pour son approche extrême de l’interaction sociale.
Après que son créateur a annoncé que SocialAI était « un réseau social privé où vous recevez des millions de commentaires générés par l'IA vous offrant un retour d'information, des conseils et des réflexions sur chaque message que vous publiez », le spécialiste de la sécurité informatique Ian Coldwater a déclaré sur X : « Cela ressemble à un véritable enfer ».
Certains experts en sécurité informatique et développeurs ont exprimé leur inquiétude, qualifiant l’application de « véritable enfer ». Ils craignent que l’utilisation de chatbots IA pour simuler des interactions humaines puisse avoir des effets négatifs sur la santé mentale des utilisateurs et sur la qualité des interactions en ligne. Colin Fraser, développeur de logiciels et spécialiste de l'IA, a exprimé un sentiment similaire : « Je ne veux pas dire que c'est méchant ou que c'est un plongeon ou quoi que ce soit d'autre, mais cela ressemble vraiment à l'enfer. L'enfer avec un grand E. »
Malgré cela, Sayman défend son projet en affirmant que SocialAI est conçu pour aider les personnes se sentant isolées à trouver un espace de réflexion et de soutien.I don’t mean this like in a mean way or as a dunk or whatever but this actually sounds like Hell. Like capital H Hell. pic.twitter.com/uCZcvbnvFW
— Colin Fraser (@colin_fraser) September 18, 2024
Il faut noter que les robots de SocialAI ont des limites, ce qui n'est pas surprenant. Outre le fait de confabuler des informations erronées (ce qui pourrait être une caractéristique plutôt qu'un bogue dans ce cas), ils ont tendance à utiliser un format cohérent de réponses brèves qui donnent l'impression d'être en boîte. Leur gamme d'émotions simulées est également limitée. Les tentatives visant à obtenir des réactions fortement négatives de la part de l'IA sont généralement infructueuses, les robots évitant les attaques personnelles même lorsque les utilisateurs maximisent les paramètres de trolling et de sarcasme.
Implications pour l’avenir des réseaux sociaux
Le lancement de SocialAI soulève des questions importantes sur l’avenir des interactions en ligne. Si les interactions artificielles deviennent la norme, cela pourrait avoir des conséquences profondes sur la manière dont nous percevons et utilisons les réseaux sociaux. La théorie de l’Internet mort pourrait ne plus être une simple théorie du complot, mais une réalité tangible. Les réseaux sociaux alimentés par l’IA pourraient offrir de nouvelles opportunités pour la personnalisation et l’engagement des utilisateurs, mais ils pourraient également poser des défis en termes d’authenticité et de confiance.
En attendant, en tant qu'œuvre d'art de performance prospective, on pourrait voir en SocialAI une forme de commentaire social sur l'insipidité des médias sociaux ou sur les méfaits des bulles de filtres algorithmiques qui ne vous donnent que ce que vous avez envie de voir et d'entendre.
Pour l'instant, l'application a déjà reçu quelques critiques positives sur l'app store de la part de personnes qui semblent apprécier cet aperçu de l'hypothétique de « l'Internet mort » en se disputant verbalement avec les bots pour se divertir : « 5 étoiles et je l'utilise depuis 10 minutes. Je pourrais me disputer avec cette IA pendant des HEURES 😭 c'est en fait tellement amusant de voir ce qu'elle va répondre aux choses les plus aléatoires 💀. »
Conclusion
La montée en puissance des applications de réseaux sociaux alimentées par l’IA comme SocialAI pourrait transformer radicalement notre expérience en ligne. Alors que certains voient cela comme une évolution positive, d’autres y voient une menace pour l’authenticité des interactions humaines. Seul le temps dira si cette nouvelle ère de l’Internet sera bénéfique ou néfaste pour la société.
Sources : Threads, BlueSky
Et vous ?
Êtes-vous tentés de l'essayer ?
Pensez-vous que les interactions artificielles peuvent réellement remplacer les interactions humaines authentiques ? Pourquoi ou pourquoi pas ?
Quels sont, selon vous, les avantages et les inconvénients des réseaux sociaux alimentés par l’IA comme SocialAI ?
Croyez-vous que l’utilisation de bots et d’algorithmes pour générer des interactions en ligne pourrait influencer vos opinions et comportements ?
Comment percevez-vous l’impact potentiel de SocialAI sur les personnes se sentant isolées ? Est-ce une solution viable ou une illusion de connexion ?
La théorie de l’Internet mort vous semble-t-elle plausible à la lumière des développements technologiques actuels ?
Devrait-il y avoir des mécanismes de régulation ou de contrôle pour garantir l’authenticité des interactions en ligne ?
Pensez-vous que les applications comme SocialAI pourraient avoir des effets négatifs sur la santé mentale des utilisateurs ?
Comment imaginez-vous l’évolution des réseaux sociaux dans les prochaines années avec l’intégration croissante de l’IA ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Je trouve que c'est du génie. Un mélange de folie, de cauchemar, de théâtre absurde, de possible solution réelle à certains problèmes complexes inattaqués pour l'instant... Il fallait assumer le truc et c'est fait. Je lève mon chapeau... artificiel ou réel, on s'en fiche après tout.
C'est absurde son truc, non?
Sa solution aux personnes seules et rejetées consiste à leur construire un monde virtuel (dans lequel elles sont seules mais virtuellement entourées - et pour peu que ça fonctionne ces personnes vont "rejeter" le monde réel).
C'est tellement absurde que s'en est presque brillant.
Le problème est que les gens se sentent intégrés mais en pratique ils s'isolent.« SocialAI est plus qu'un projet de plus pour moi - c'est l'aboutissement de tout ce à quoi j'ai pensé, obsédé et rêvé depuis des années. J'ai toujours voulu créer quelque chose qui ne se contente pas de montrer ce qui est possible avec la technologie, mais qui aide aussi les gens d'une manière réelle et tangible. SocialAI est conçu pour aider les gens à se sentir écoutés et pour leur offrir un espace de réflexion, de soutien et de retour d'information qui agit comme une communauté soudée.
Savez vous pourquoi beaucoup de personnes transgenres sont développeuses et fan de WOW?
Parce que les deux environnements proposent des interactions avec des personnes sans se faire juger physiquement. C'est dingue le nombre de geek.ettes qui avaient tout le temps de problèmes de micro
Ce que je veux dire est que ce dont il rêve existe déjà.
Il ne répond peut être pas aux problèmes de tout le monde mais la solution à l'isolation n'est jamais plus d'isolation.
Et je sais que ma démonstration ignore certains handicaps (notamment ceux qui ont des difficultés d'expression) mais d'autres moyens existent (notamment les échanges par mail qui permettent de prendre le temps d'échanger sans lasser la personne en face)
Est-ce vraiment un problème - en dehors du scandale écologique?La théorie de l’Internet mort vous semble-t-elle plausible à la lumière des développements technologiques actuels ?
Je me fous pas mal que des IA passent leur temps à interagir entre elles.
Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir, « Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu »
Sundar Pichai, PDG de Google, a prédit l'avenir de l'intelligence artificielle (IA). S'exprimant lors de l'événement The New York Times Dealbook, Sundar Pichai a déclaré que le développement de l'IA allait commencer à ralentir. « Je pense que les progrès vont devenir plus difficiles quand je regarde vers [2025]. Les fruits à portée de main ont disparu », a-t-il affirmé lors de son intervention.
Les prédictions de Sundar Pichai rejoignent les préoccupations croissantes des analystes du secteur quant à la trajectoire de l'IA générative. En effet, selon le cabinet d'analystes CCS Insight, l'IA générative, malgré l'attention considérable qu'elle suscite, sera confrontée à un ralentissement imminent et à des défis de plus en plus importants. Selon les experts, les coûts opérationnels élevés, les risques et la complexité de la technologie l'emporteront sur l'engouement initial. Ces systèmes reposent sur une immense puissance de calcul pour gérer leurs algorithmes complexes, ce qui fait de l'évolutivité une entreprise coûteuse.
À l'heure actuelle, la plupart des entreprises spécialisées dans le développement de l'IA publient un modèle général, puis commencent à travailler sur une version plus spécifique. Par exemple, OpenAI, fabricant de ChatGPT, a mis au point ChatGPT 4, qui a été transformé en 4o, lui-même divisé en « Mini » (une version moins coûteuse) et auquel succède maintenant o1.
Chaque nouveau modèle est accompagné de milliards d'instructions, ce qui, selon Sundar Pichai, n'est pas la voie à suivre. Il n'est plus question de grossir en termes de capacité.
Le prochain objectif de M. Pichai est de réaliser des « percées plus profondes », qu'il ne considère pas comme un mur : « Vous pouvez donc considérer qu'il y a un mur ou qu'il y a de petites barrières ».
L'une de ces barrières est la possibilité que les données générées par l'IA deviennent les données d'entraînement, ce qui empoisonnerait le puits.
En effet, une récente étude de l'université d'Oxford et de Cambridge a révélé que le fait de s'appuyer sur des contenus générés par l'IA pour la formation des modèles d'IA entraîne l'« effondrement » de ces modèles. Ce phénomène, connu sous le nom de contamination récursive des données, entraîne une dégradation des performances et des biais dans la précision des prédictions et rendra plus difficile la formation des futurs grands modèles de langage.
On estime qu'en 2024, 57 % de l'internet sera généré par l'IA, ce qui ne constitue pas de bonnes données à récolter.
L'IA est formée à partir de milliards de données provenant des médias, des livres et de l'internet. Et comme les entreprises commencent à manquer de matériel, il en résulte un effet de plateau alors que les grands modèles de langage comme ChatGPT sont mis à jour.
Les sauts importants entre les modèles observés entre le GPT 3.5 et le GPT 4 cesseront d'être aussi fréquents au fur et à mesure que les nouvelles données disponibles se tariront.
Pour contourner ce problème, les entreprises ont conclu des accords afin d'obtenir une source directe de nouveaux contenus. OpenAI, par exemple, s'est associé à des éditeurs tels que Future. Google lui-même a conclu un accord de 60 millions de dollars pour récolter les données de Reddit à des fins de formation.
L'industrie de l'IA confrontée à un plateau alors que la formation commence à ralentir
L'IA et son industrie sont actuellement dans une course effrénée pour être les meilleurs. Cependant, ses principales promesses, comme l'intelligence générale artificielle (AGI), qui permet à un ordinateur d'imiter théoriquement le cerveau humain, sont minimisées par les leaders de l'industrie.
Le PDG d'OpenAI, Sam Altman, a récemment revu à la baisse les attentes concernant le prochain obstacle majeur de l'IA. Alors qu'il prévoit un lancement en 2025, il a déclaré lors du 2024 New York Times DealBook Summit : « À mon avis, l'IA sera disponible plus tôt que ne le pensent la plupart des gens dans le monde, et elle aura beaucoup moins d'importance ».
OpenAI a vu plusieurs de ses dirigeants quitter l'entreprise, alors qu'elle s'apprête à devenir une société à but lucratif.
Sundar Pichai s'en est pris à Microsoft, l'une des entreprises les plus importantes dans le domaine de l'IA à l'heure actuelle. Le géant de la technologie travaille actuellement sur des centrales nucléaires pour alimenter ses centres de données pour l'IA, mais ne dispose pas encore de son propre modèle pour le public. Au lieu de cela, Microsoft détient une participation de 49 % dans OpenAI et utilise divers wrappers pour présenter le CoPilot alimenté par ChatGPT dans son logiciel.
Faisant allusion à Microsoft, Sundar Pichai a déclaré : « J'adorerais faire une comparaison côte à côte entre les modèles de Microsoft et les nôtres, n'importe quand, à n'importe quel moment... Ils utilisent les modèles de quelqu'un d'autre ».
Après deux années d'intérêt croissant et d'investissements sans précédent, l'IA semble toutefois perdre en popularité et certains investisseurs commencent à craindre qu'elle ne leur apporte pas les profits considérables escomptés.
En août 2024, les cours des actions des entreprises à l'origine de la révolution de l'IA ont chuté de 15 % par rapport à leurs précédents sommets, reflétant les inquiétudes des investisseurs quant à la capacité de la technologie à fournir des résultats à la hauteur des milliards injectés. Les experts s'interrogent également sur les limites des grands modèles de langage (LLM).
Toutefois, certains spécialistes restent optimistes et estiment que l'IA entre dans une phase de maturation. Selon eux, des applications à fort impact émergeront de cette période de consolidation, jetant les bases de progrès durables.
Source : Intervention du PDG de Google, Sundar Pichai, lors du sommet New York Times Dealbook
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les prédictions du PDG de Google crédibles ou pertinentes ?
Voir aussi :
Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire
Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM, il propose une piste pour créer une IA de niveau humain
L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Un système probabiliste ne peut générer de l'intelligence. L'astuce, la finesse n'est pas la moyenne.
Ne surtout pas confondre la connaissance encyclopédique, la culture avec l'intelligence.
Un indien Yanomami peut avoir un QI de 150 et ne rien connaître du monde extérieur.
L'association d'idée permet d'innover, ce n'est pas par essence probabiliste.
Un vrai modèle ne fait pas d'erreur, n'hallucine pas intrinsèquement, ne ment pas sciemment... Altman a un boulot de titan devant lui. Un vrai modèle doit donner un indice de fiabilité, doit donner les sources sur lequel il s'appuie pour formuler sa réponse...
Les financiers, les happy few n'ont pas compris la problématique.
Pourtant dans les conditions d'utilisation, il y a un paragraphe qui dit de ne pas utiliser les résultats dans les systèmes critiques, quel processus n'est pas critique mis à part celui qui ne sert à rien ! Traduire, notre produit n'est pas du tout fiable.
La situation est pénible. Les LLM donnent des réponses médiocres ou fausses. Les sites perso se sont raréfiés et ne sont pas valorisés par les moteurs.
Les sites bien référencés sont quasiment des fermes de contenu pourris de texte de LLM.
Quand copilot dit quelque chose d'étrange, parfois il peut donner des sources qui s'avèrent être du mauvais contenu généré par lui-même dans un site-ferme. Les modèles sont déjà empoisonnés.
La valorisation de chatGPT (OpenAI) est de 150 milliards.
Un truc qui ne fonctionne pas se vend très très bien.
C'est très probablement une hallucination 😂
La moindre hallucination, et/ou mensonge d'une IA devrait être rédhibitoire, non ?
Que des gosses utilisent ça pour tricher, ça passe mais des professionnels, des entreprises, des services publics, des armées !
l'IA n'est pas dangereuse, c'est les pseudo IA qui le sont.
vous avez déjà séjourné dans les Tumuc-Humacs ?
Oi un indien Yanomami peut avoir un bon QI ce qu'il le différencie avec un occidental c'est qu'il a un savoir quasi encyclopédique de son environnement.
Il sait distinguer les plantes qui sont bénéfiques pour sa santé, il sait chasser, pécher.
Ce que ne sait pas faire un européen![]()
c'est la loi de Gartner, un grand bon en avant avec l'ia et l'utilisation des transformers de manière XXL, puis désormais un calme plat pendant minimum une bonne décennie.
maintenant les transformer c'est une innovation de google qui a plus de 10ans et qui a de (grosses) limites, il faut innover et utiliser un nouvelle algorithme qui permeterais d'aller plus loin que les GPT...
d'un point de vue business "Si mon chauffeur de taxi m'en parle, ce n'est plus la peine d'investir" comme l'a dit Warren Buffett, il faut trouver et investir sur la prochaine vague, l'ia c'est terminé y'a plus grand chose a en tiré à la bourse.
loin de moi l'envie de me faire mousser avec ces belles paroles, j'ai des actions intels et j'ai perdu de l'argent... j'ai un très mauvais biais qui préfère investir dans de l'industrie lourde plutôt que des boites de bureau uniquement (amd, nvidia...), j'ai clairement raté le virage de l'ia.
bon mes actions dans des boites d'armement ont compensé les perte d'intel par contre![]()
donc tu as fait du profit sur la mort des soldats et des civils quand un missile rate sa cible ?
Et tu t'en vantes ? Tu en es fier ? Tu ferais mieux d'aller te cacher, c'est immonde ce que tu racontes.
Et je ne parle pas des animaux, qui ne demandent rien à personne et voudraient juste vivre leur vie sans risquer de la perdre tous les jours à grands coups de bénéfices honteux...
PS : tu arrives à te regarder dans la glace le matin ?
c'est pas moi qui fait les guerres et j'ai juste eu de la chance de parier que des conflits allait s’intensifier y'a 10ans et accroitre le besoin. Et heureusement que la France arrive à vendre des armes, c'est l'une des dernières industries qui existe dans le pays et ca permet de réduire la balance commercial
et d'un point de vue ingénieur, c'est beau, c'est des machines de pointe et extrêmement complexe, ça devrait plutôt être une fierté d'arriver a faire des SCALP ou des cannons César ou l'un des meilleur avion du monde le rafale.
j'ai il y'a longtemps bosser chez Dassault (sur la camera d'un drone), c'est plutôt cool qu'une boite arrive a faire de l'industrie lourde et de pointe en France et crée des milliers d'emplois.
La France sait encore faire quelque chose de complexe et de qualité donc oui j'en suis fier. Je suis souvent négatif sur l'avenir en france, donc quand c'est possible faut trouver des bonne noiuvelle, a l'image de Marc Touati et de sa bonne nouvelle en fin de video.
Vous écoutiez l'album "Résistance" de Sinsemilla en 1998 ?
Est-ce que ça ne fait pas parti des meilleures morts ?
Parce que là il n'y a pas de souffrance, il y a moyen de rapidement passer de vivant à mort, donc c'est cool.
Après ça peut être horrible aussi, si le bâtiment s'effondre que tu te retrouves coincé sous les débris, 4 jours plus tard on te libère mais t'as perdu tes jambes et après tu vie encore pendant des longues années en étant lourdement handicapé, là ça fait chier.Parce que tu te dis "je ne vivais que pour faire du vélo et jouer de la double pédale à la batterie
".
je trouve encore plus abjecte de souhaiter la mort de quelqu'un...
et pour les salariés de atos/dassault/thales/orange, tu souhaites aussi leurs morts ? car ils sont tous des collabos à des armes de mort.
il faut bien payer les factures et donc avoir un travail.
C'est facile de toujours cracher son venin sur les méchantes entreprises, les entreprises comme Total ou Mossanto...etc ne font que réponde à un besoins de clients. Les vrais responsables ce sont les politiciens et nous mêmes.
Fallait voter pour des politiciens plus pacifiste qui n'envoie pas des armes en Ukraine, et tu n'as qu'a pas acheter des plantes OGM, avoir une voiture au pétrole,...etc. On n'en fini plus en faite.
le smartphone dans ta poche a surement une partie fabriqué par des esclaves dans les mines au congo ou des ouïghours/nord coréens en chine.
Partager