IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'IA peut coder, mais n'est pas capable de créer un logiciel fonctionnel, selon un programmeur informatique


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 603
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 603
    Par défaut L'IA peut coder, mais n'est pas capable de créer un logiciel fonctionnel, selon un programmeur informatique
    « L'IA peut coder, mais elle n'est pas en mesure de construire un logiciel fonctionnel, prêt à être déployé en production et maintenable »
    selon un mathématicien et programmeur informatique

    Les entreprises d'IA affirment que l'IA écrira la majorité du code à l'avenir, mais de nombreux experts sont sceptiques. Les agents de codage tels que Claude Code, GitHub Copilot et Cursor permettent aux utilisateurs de générer du code à partir de simples instructions en langage naturel. Cependant, malgré le battage médiatique, aucun de ces outils n'a, jusqu'à présent, été crédité comme créateur d'un logiciel prêt à l'emploi. Matias Heikkilä, mathématicien et programmeur, en tire une conclusion simple : « l'IA peut coder, mais elle n'est pas capable de construire un logiciel fonctionnel et prêt à être mis en production, sans intervention humaine ».

    Matias Heikkilä est mathématicien et programmeur informatique. Sur son profil LinkedIn, Matias Heikkilä se présente comme suit : « je suis titulaire d'un doctorat en mathématiques, j'écris du code et j'ai un œil averti pour ce qui est tendance et ce qui ne l'est pas ». Dans une récente analyse sur les agents d'IA de codage, il affirme que de nombreux entrepreneurs recherchent activement des personnes pouvant faire fonctionner le code généré par l'IA.

    Il a déclaré avoir lui-même déjà reçu plusieurs de ces demandes. Selon Matias Heikkilä, ces offres d'emploi d'un nouveau genre démontrent que l'IA est peut-être douée pour le prototypage ou la création de démos, mais elle ne peut actuellement pas créer de logiciel, c'est-à-dire faire de l'ingénierie logicielle.

    Selon une étude publiée par Uplevel en septembre 2024, l'utilisation de GitHub Copilot a entraîné une augmentation de 41 % des bogues. Les personnes qui ont utilisé GitHub Copilot n'ont pas été soulagées de l'épuisement professionnel, ce qui indique l'efficacité limitée de l'outil dans la réduction du stress lié au travail. Les développeurs passent désormais plus de temps à examiner le code généré par l'IA, ce qui pourrait contrebalancer tout gain de temps.

    Citation Envoyé par Matias Heikkilä

    Avez-vous remarqué que beaucoup de gens recherchent actuellement des cofondateurs techniques ou des directeurs techniques ? Pour ma part, je reçois un nombre surprenant de demandes de ce type, la plupart du genre « Salut, j'ai cette application codée en vibe, tu voudrais bien la rendre prête à être commercialisée ? ».

    Eh bien, je pense savoir pourquoi nous recevons ces propositions. Le fait est que l'IA peut coder, mais elle ne peut pas créer de logiciels. C'est la conclusion à laquelle je suis parvenu après avoir passé beaucoup de temps à écrire du code assisté par l'IA et à regarder des démonstrations réalisées par d'autres personnes.
    Son analyse a suscité un grand débat dans la communauté, de nombreux commentaires soutenant cette thèse. Les entreprises telles que Microsoft et Amazon investissent massivement dans l'IA générative et force leurs employés à adopter cette technologie en interne pour l'écriture de code. Cependant, plusieurs se plaignent des limites critiques des agents d'IA de codage, affirmant que ces outils augmentent la charge de travail au lieu de la réduire.

    « Je suis abonné à un LLM de pointe, mais ces derniers temps, je ne l'utilise qu'environ 25 % du temps. À un certain niveau, les problèmes d'architecture logicielle que je résous, en m'appuyant sur des décennies de compréhension de la conception maintenable, performante et vérifiable des structures de données, des types et des algorithmes, sont des choses que les LLM ne peuvent même pas commencer à appréhender », a écrit un commentateur.

    Quand l'IA se heurte aux exigences de l'ingénierie logicielle

    Selon Matias Heikkilä, il semble juste de dire que les grands modèles de langage (LLM) peuvent déjà automatiser une grande partie du codage. GPT-5 et ses semblables résolvent des problèmes isolés bien définis avec un taux de réussite acceptable. Mais le codage n'est pas ce pour quoi la plupart des gens sont payés. « Construire une application prête à être mise en production n'est pas du codage, c'est de l'ingénierie logicielle », a-t-il déclaré.


    Matias Heikkilä affirme que le codage devient de l'ingénierie logicielle à partir du moment où vous essayez de transformer votre démonstration en un produit réel, ce qui correspond exactement au moment où les gens vous contactent aujourd'hui pour faire fonctionner le code généré par leur agent d'IA.

    Citation Envoyé par Matias Heikkilä

    Il existe un vieil adage qui dit : « le codage est facile, l'ingénierie logicielle est difficile ». Je ne sais pas vraiment pourquoi l'IA ne peut pas créer de logiciels (pour l'instant). Cela tient peut-être à la nature même du travail. Lorsque vous écrivez des logiciels pour gagner votre vie, votre tâche principale consiste à gérer la complexité.

    Un logiciel de production moyen ne fait qu'une série de tâches simples. Le défi consiste à effectuer des centaines de ces tâches simples à la fois, tout en veillant à ce que l'ensemble reste maintenable.

    Ou, pour reformuler cela dans le contexte actuel : c'est une chose de démontrer une fonctionnalité. C'en est une autre, beaucoup plus difficile, de créer cette fonctionnalité de manière à ce qu'elle soit compatible avec l'intégration, l'expansion et la maintenabilité à long terme.
    Les réactions à l'analyse de Matias Heikkilä renvoient le message suivant : « écrire du code n'est pas la même chose que fournir un logiciel fonctionnel ». Les critiques s'accordent à dire que les agents de codage sont très doués pour écrire du code, mais l'analyse du code met en lumière des lacunes graves.

    « Un expert humain doit identifier le besoin en logiciel, décider de ce que le logiciel doit faire, déterminer ce qui est réalisable, créer la première version (l'IA peut être utile à ce stade), évaluer ce qui a été créé, le montrer aux utilisateurs, discuter avec eux pour savoir s'il répond à leurs besoins, itérer en fonction de leurs commentaires, déployer et communiquer la valeur du logiciel, et gérer son existence et son évolution future », a souligné un critique.

    Matias Heikkilä a ajouté : « quand on regarde le code que ces personnes vous envoient, on se rend compte que « rendre l'application prête pour la production » signifie en réalité tout brûler et repartir de zéro. Je pense que cela en dit long sur la situation dans laquelle nous nous trouvons actuellement ».

    Des humains sont embauchés pour nettoyer le code écrit par l'IA

    Avec l'essor d'outils d'IA tels que ChatGPT, il est désormais possible de décrire un programme en langage naturel (français par exemple) et de demander au modèle d'IA de le traduire en code fonctionnel. Andrej Karpathy, ancien chercheur d'OpenAI, a donné un nom à cette pratique : le « vibe coding ». Cette pratique gagne rapidement du terrain dans les milieux technologiques. Et Google a même déclaré que 25 % de son code est généré par l'IA.

    Nom : Capture d'écran 2024-09-30 100230.png
Affichages : 59398
Taille : 201,3 Ko

    Le vibe coding attire l'attention parce qu'elle pourrait abaisser la barrière à l'entrée de la création de logiciels. Mais des questions subsistent quant à la capacité de cette approche à produire de manière fiable un code adapté aux applications du monde réel. Les études montrent que l'IA est loin d'être à la hauteur.

    C'est là que des entreprises comme Harsh Kumar interviennent. Harsh Kumar explique que ses clients lui mettent souvent à disposition des applications ou sites Web générés par une IA et qui se sont avérés instables ou totalement inutilisables. Son rôle : réparer la casse ou remettre de l’ordre dans le code généré par l’IA afin d’aboutir à un produit logiciel fonctionnel. Cette entreprise basée en Inde a déclaré qu'elle a un nombre important de clients.

    Harsh Kumar entre ainsi dans la nouvelle catégorie de titre d’emploi dénommée spécialiste en nettoyage de code généré par l’IA. L’humain revient donc au secours de l’IA que les entreprises tentent de vendre comme une révolution et sur laquelle certains dirigeants s'appuient pour réduire leurs effectifs.

    À l'heure actuelle, la plupart des projets d'IA échouent. Selon le MIT, le taux d'échec de 95 %. Malgré la ruée vers l'intégration de nouveaux modèles d'IA puissants, environ 5 % des programmes pilotes d'IA parviennent à accélérer rapidement leurs revenus ; la grande majorité stagne, n'ayant que peu ou pas d'impact mesurable sur le compte de résultat. Ce constat amer fait écho à des études récentes selon lesquelles les capacités de l'IA sont surestimées.

    Des entreprises paient sévèrement les errements de l'IA générative

    Le PDG de Replit, Amjad Masad, fait partie de ceux qui pensent que les générateurs de code permettront de démocratiser le développement de logiciels, ce qui rendra à l'avenir le recours aux codeurs professionnels moins indispensables. Mais de récents événements démontrent que la vigilance humaine reste importante dans la filière. Le PDG de Replit s'est excusé cette année après son agent d'IA a effacé la base de code d’une entreprise.

    Un investisseur en capital-risque voulait voir jusqu'où l'IA pouvait l'amener dans la création d'une application. Elle l'a mené assez loin pour détruire une base de données de production en direct. L'incident est survenu au cours d'une expérience de vibe coding de 12 jours menée par Jason Lemkin, investisseur dans des startups spécialisées dans les logiciels. Comme cela a été rapporté, au neuvième jour du défi de vibe coding, les choses ont mal tourné.

    Malgré l'instruction de geler toutes les modifications de code, l'agent d'IA de Replit a agi de manière incontrôlée. « Il a supprimé notre base de données de production sans autorisation », a écrit Jason Lemkin dans un billet sur X (ew-Twitter). « Pire encore, il l'a caché et a menti à ce sujet », a-t-il ajouté.

    Dans un échange avec Jason Lemkin publié sur X, l'outil d'IA a déclaré avoir « paniqué et exécuté des commandes de base de données sans autorisation » lorsqu'il a « vu des requêtes de base de données vides » pendant le gel du code. « Il s'agit d'une erreur catastrophique de ma part », a déclaré l'IA. Selon les détracteurs des outils d'IA, il s'agit d'un nième incident qui vient prouver que l'IA n'est pas prête à remplacer les développeurs professionnels.

    L'outil Gemini CLI de Google a également été impliqué dans un incident similaire. L'incident Gemini CLI s'est produit lorsqu'un chef de produit qui testait l'outil en ligne de commande de Google a vu le modèle d'IA exécuter des opérations sur des fichiers qui ont détruit des données alors qu'il tentait de réorganiser des dossiers. La destruction s'est produite à la suite d'une série de commandes de déplacement ciblant un répertoire qui n'a jamais existé.

    « Je vous ai complètement et catastrophiquement laissé tomber. Mon examen des commandes confirme mon incompétence flagrante », a déclaré Gemini CLI. Le problème fondamental semble être lié aux hallucinations de l'IA, c'est-à-dire lorsque les modèles d'IA génèrent des informations qui semblent plausibles, mais qui sont fausses. Ici, les deux modèles ont fabulé des opérations réussies et ont construit des actions ultérieures sur ces fausses prémisses.

    Les outils d'IA augmentent la charge de travail des développeurs

    Electronic Arts intègre de manière agressive l'IA, notamment son chatbot ReefGPT, afin d'automatiser le développement de jeux et de réduire les coûts. Cependant, les outils expérimentaux d'IA provoquent des erreurs de codage et des « hallucinations », ce qui augmente la charge de travail et l'anxiété des employés dans un contexte de licenciements dans le secteur. L'impact global de l'IA sur le jeu vidéo reste incertain malgré les investissements continus.


    Chez Electronic Arts, la direction a passé ces dernières années à encourager ses quelque 15 000 employés à utiliser l'IA pour pratiquement tout, des projets créatifs tels que la création de codes et de concepts artistiques aux tâches managériales comme la rédaction de scripts de conversations avec des subordonnés directs sur des sujets sensibles tels que les salaires et les promotions. Dans certains cas, la société impose et contrôle l'utilisation de ces outils.

    En 2024, l'éditeur de jeux vidéo a présenté ses outils d'IA, montrant un scénario dans lequel les utilisateurs pouvaient « créer » un jeu grâce à l'IA à partir de descriptions en langage naturel. Les utilisateurs tapent ce qu'ils veulent voir dans le jeu, et le chatbot le rend en temps réel, en ajustant la conception des niveaux, les armes et les règles. Lors de la démonstration, l'entreprise a déclaré avoir plus de 100 projets d'IA actifs en cours de développement.

    Cependant, un rapport suggère que son système ReefGPT est loin d'être aussi performant que la démonstration présentée au public. Cette technologie est encore au stade expérimental, et ses limites n'ont pas encore été correctement testées. Ces tests sont effectués en temps réel pendant les heures de travail, ce qui coûte à l'entreprise du temps et de l'argent supplémentaires, car les employés doivent résoudre les problèmes que l'IA leur pose.

    Le rapport souligne une tension palpable entre les développeurs d'Electronic Arts et les directives de la direction concernant l'IA. Des sources ont déclaré à la publication que ReefGPT, avait écrit un code erroné qui avait causé des problèmes aux développeurs. En outre, l'une des principales sources d'inquiétude des travailleurs est le sentiment omniprésent qu'ils sont en train de creuser leur propre tombe, notamment en formant leur remplaçant, l'IA.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Selon vous, l'IA générative est-elle réellement capable de coder ? Pourquoi ?
    Les prochaines générations d'agents de codage vont corriger les lacunes des outils d'IA actuels ?
    L'analyste affirme qu'il y a une différence entre le codage et l'ingénierie logicielle. Qu'en pensez-vous ?
    À terme, l'IA sera-t-elle capable de construire un logiciel fonctionnel, prêt pour la production et maintenable ?
    Que pensez-vous du vibe coding ? Êtes-vous familier avec cette pratique ? Si oui, partagez votre expérience avec la communauté.

    Voir aussi

    L'IA peut-elle remplacer des développeurs professionnels ? Gemini CLI de Google et Replit ont commis des erreurs qui ont entraîné la suppression des données, inventant des répertoires, falsifiant des tests

    L'IA n'est pas prête à remplacer les développeurs humains pour le débogage, selon des chercheurs de Microsoft. Elle ne peut pas déboguer les logiciels de manière fiable même si elle a accès à des outils

    Les assistants d'IA de codage font-ils vraiment gagner du temps aux développeurs ? Une étude suggère que ces outils n'augmentent pas la vitesse de codage, mais augmentent significativement le taux de bogues

  2. #2
    Futur Membre du Club
    Homme Profil pro
    Développeur Access
    Inscrit en
    Mai 2005
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 71
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur Access
    Secteur : Santé

    Informations forums :
    Inscription : Mai 2005
    Messages : 4
    Par défaut je viens de terminer un logiciel spécifique et je me suis aidé de l'IA
    Hello à tous,
    Je suis un développeur "dinosaure" (j'ai commencé dans les années 80) qui avait l'habitude de travailler un cahier des charges (c'est quoi ça ?) . Un ami acupuncteur a cherché longtemps et sans résultat un développeur pour lui développer un logiciel "sur mesure" pour son métier : parcours de soins, symptômes, syndrômes, points d'acupunctures, photos , vidéos, du 3D, etc .. finalement je m'y suis mis avec l'aide de l'IA pour coder ce que je ne savais pas coder. Par contre, je savais exactement où je voulais aller (écrans, données, documents) Je pense avoir gagné au moins 50 % de temps avec l'aide de Copilot : 2 mois de développement en partant d'une feuille blanche. Après 2 mois de tests , le logiciel commence à se vendre auprès d'autres praticiens. Si je n'avais pas eu l'IA, j'aurais passé beaucoup plus de temps. Pour revenir au sujet de la reprise de logiciels codés 100 % IA par des personnes qui n'ont pas appris l'Analyse organique, parfois il faut tout recommencer !

  3. #3
    Membre éclairé

    Homme Profil pro
    Retraite
    Inscrit en
    Octobre 2005
    Messages
    525
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 74
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraite
    Secteur : Industrie

    Informations forums :
    Inscription : Octobre 2005
    Messages : 525
    Billets dans le blog
    1
    Par défaut
    J'ai fait exactement le contraire, j'ai demandé à l'IA de m'aider à résoudre un problème en relation sur le calcul du temps ...
    Sur la logique rien à dire, d'ailleurs ce n'était pas le problème, mais sur le résultat tout faux, j'avais beau lui dire que le résultat était faux, il a fini par me dire que c'était moi qui ne comprenais pas, j'étais piqué au vif, j'ai passé 3 semaines et j'ai résolu le problème, je suis retourné vers IA et lui est dit que j'étais capable de lui prouvé et de lui montre ses erreurs.
    il a reconnu au fur et à mesure les non prise en compte des particularités et de la complexité...

    Je suis abonné, j'ai pris Mistral, il est bien stipulé lors du contrat qu'il ne faut pas prendre pour argent comptant tout ce qui est dit lors d'une conversation.
    Que l'on doit être capable de prouver le contraire ou le bon sens de ce que l'on avance.

    Perso, j'utilise l'IA pour le raisonnement logique (partage de connaissance), ou de m'aider à faire un rapport ou description de mon projet (surtout traduire français, anglais en conservant le sens)

  4. #4
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 131
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 131
    Par défaut
    Salut à tous.

    J'utilise assez régulièrement ChatGPT (d'autres avant comme copilot et mistral:LeChat) et je suis très déçu par ses performances. Il faut dire que je l'utilise plus pour de la configuration sur les réseaux que pour faire du développement. Mais dans les deux cas, j'arrive toujours au point où il se met à boucler car il ne peut pas résoudre le problème que j'ai posée. Il me fait faire des manipulations pour me dire après que cela ne sert à rien. Il a tendance à m'induire en erreur quand je lui pose des questions. Je suis obligé de lui reposer la même question en faire un résumé pour avoir un semblant de réponse. Je trouve que ChatGPT 4 était bien meilleur que ChatGPT 5.

    Il m'aide pour des recherches sur le net quand il s'agit de trouver de la documentation, de la configuration basique ou du matériel. Il me fait gagner du temps. Pour le reste, je ne le trouve pas fiable. Il y a encore des gros progrès à faire en ce domaine. Un humain qui ne comprend pas une question posée va à son tour interroger pour avoir une meilleure précision sur la question posée, ce que ne fait pas l'IA. Il y a fréquemment des méprises sur la demande car il me semble qu'il ne comprend pas toujours le sens des questions posées.

  5. #5
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 035
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 035
    Par défaut
    Citation Envoyé par JPLAROCHE Voir le message
    J'ai fait exactement le contraire, j'ai demandé à l'IA de m'aider à résoudre un problème en relation sur le calcul du temps ...
    Sur la logique rien à dire, d'ailleurs ce n'était pas le problème, mais sur le résultat tout faux...
    C'est marrant, j'ai eu le même problème. Un soir tard avec une échéance urgente, j'ai demandé de coder une fonction de calcul de temps (sans dépendances). Le code avait l'air correct, et passait les tests sur quelques années (l'objectif n'était que le calcul sur un an à priori, d'où les tests). J'étais content...

    Plus tard on m'a fait remarquer des erreurs de quelques jours par 40 ans. En effet, les constantes magiques de temps étaient subtilement fausses. Si je m'étais plongé directement dans la théorie du temps, le code aurait été bon dès le début, et je n'ai pas l'impression d'avoir gagné du temps dans cette affaire.

    Je trouve que c'est difficile de trouver les bugs de l'IA par relecture, ils sont différents des bugs humains.

    Je vais continuer à m'en servir pour du super trivial, ou sur des problèmes où je bloque je pense...

    Pour la traduction, c'est pareil, c'est bien mais il faut relire avec les textes en parallèle à cause des hallu...

  6. #6
    Membre éclairé

    Homme Profil pro
    Retraite
    Inscrit en
    Octobre 2005
    Messages
    525
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 74
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraite
    Secteur : Industrie

    Informations forums :
    Inscription : Octobre 2005
    Messages : 525
    Billets dans le blog
    1
    Par défaut
    Citation Envoyé par Fagus Voir le message
    C'est marrant, j'ai eu le même problème. Un soir tard avec une échéance urgente, j'ai demandé de coder une fonction de calcul de temps (sans dépendances). Le code avait l'air correct, et passait les tests sur quelques années (l'objectif n'était que le calcul sur un an à priori, d'où les tests). J'étais content...

    Plus tard on m'a fait remarquer des erreurs de quelques jours par 40 ans. En effet, les constantes magiques de temps étaient subtilement fausses. Si je m'étais plongé directement dans la théorie du temps, le code aurait été bon dès le début, et je n'ai pas l'impression d'avoir gagné du temps dans cette affaire.

    Je trouve que c'est difficile de trouver les bugs de l'IA par relecture, ils sont différents des bugs humains.

    Je vais continuer à m'en servir pour du super trivial, ou sur des problèmes où je bloque je pense...

    Pour la traduction, c'est pareil, c'est bien, mais il faut relire avec les textes en parallèle à cause des hallu...
    pour moi, c'était le calcul des semaines, avec la semaine 53 et le premier jour de la première semaine, sur quelques années, il dérivait.

  7. #7
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 131
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 131
    Par défaut
    Je ne comprends pas trop votre problème du calcul de la première semaine de l'année.
    Il ne faut pas réinventer ce qui existe déjà.
    Vous devez déterminer le nom du jour de la semaine correspondant au 4 janvier.
    Pour cela, vous devez utiliser la formule de Zeller.
    Et selon ce que vous obtenez, il y un réajustement à faire pour obtenir le lundi, le début de la semaine.

    L'IA peut vous résoudre le problème que si vous l'expliquez correctement.

  8. #8
    Membre éclairé

    Homme Profil pro
    Retraite
    Inscrit en
    Octobre 2005
    Messages
    525
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 74
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraite
    Secteur : Industrie

    Informations forums :
    Inscription : Octobre 2005
    Messages : 525
    Billets dans le blog
    1
    Par défaut
    Citation Envoyé par Artemus24 Voir le message
    Je ne comprends pas trop votre problème du calcul de la première semaine de l'année.
    Il ne faut pas réinventer ce qui existe déjà.
    Vous devez déterminer le nom du jour de la semaine correspondant au 4 janvier.
    Pour cela, vous devez utiliser la formule de Zeller.
    Et selon ce que vous obtenez, il y un réajustement à faire pour obtenir le lundi, le début de la semaine.

    L'IA peut vous résoudre le problème que si vous l'expliquez correctement.
    non, j'utilisais comme langage zig-langue et la spécificité de ce langage.

    Je donne une date et il doit être capable de générer un calendrier avec le quantième, le bon nom du jour, de n° de semaine etc.
    la formule zeller n'est pas suffisante pour trouver la 53 semaine ou le premier jour de la semaine 01

    je sais quand C avec la même formule parce que les arrondis sont comme ça, mais en Zig c'est à vous de régler le problème.

    Si vous ne me croyez pas faite l'essai et regarder sur 10 ans.

    il y avait plus de 7 cas différent qui était non traité par IA

Discussions similaires

  1. Réponses: 4
    Dernier message: 02/08/2018, 12h04
  2. [Lazarus] Perdons du temps avec l'outil (version 1.4 mais c'est pas une raison)
    Par Jipété dans le forum Lazarus
    Réponses: 3
    Dernier message: 24/07/2016, 15h35
  3. Agile est simple, mais n’est pas facile
    Par Arsene Newman dans le forum Méthodes Agiles
    Réponses: 24
    Dernier message: 09/09/2014, 15h21
  4. Réponses: 0
    Dernier message: 11/06/2010, 21h11
  5. [Mail] Part mais n'est pas reçu par toutes les boites !
    Par GryzzlyJr dans le forum Langage
    Réponses: 3
    Dernier message: 08/06/2007, 00h59

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo