IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #41
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau
    Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau
    et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA

    Des chercheurs du Chicago Kent College of Law, de la Bucerius Law School de Hambourg et du Stanford Center for Legal Informatics (CodeX) ont testé GPT-3.5 sur des questions de l'examen du barreau américain. Sur la base des résultats obtenus lors du test, ils prévoient que GPT-4, ainsi que des modèles comparables, pourraient être en mesure de réussir l'examen très bientôt. Sans formation spécifique, GPT-3.5 a obtenu un taux de précision global de 50,3 %. Les examinateurs estiment que c'est mieux que ce que beaucoup de diplômés de l'école de droit peuvent atteindre. Et en particulier, GPT a atteint le taux de réussite moyen pour deux sujets : Preuves et Délits.

    Aux États-Unis, presque toutes les juridictions exigent un examen de licence professionnelle connu sous le nom de "Bar Exam". En réussissant cet examen, les avocats sont admis au barreau d'un État américain. Dans la plupart des cas, les candidats doivent suivre au moins sept ans d'études postsecondaires, dont trois ans dans une école de droit accréditée. Selon les analystes, la préparation de l'examen prend des semaines, voire des mois, et environ une personne sur cinq échoue au premier essai. Dans le cadre d'une étude, les chercheurs ont examiné comment le modèle GPT-3.5, qui sert de base à ChatGPT, se comporte à l'examen du barreau.

    En effet, alors que le monde entier attendait GPT-4, la prochaine version de GPT-3, OpenAI a publié en décembre dernier GPT-3.5 sous la forme d'un nouveau chatbot d'IA, appelé ChatGPT, qui a vu plus d'un million d'utilisateurs moins d'une semaine après son lancement. ChatGPT est une version affinée de GPT-3.5, une mise à jour que la société n'avait pas encore annoncée. Le chatbot a montré ses capacités à générer du texte dans un format de dialogue, ce qui, selon la société, lui permet de répondre à des questions de suivi, d'admettre ses erreurs, de contester des prémisses incorrectes et de rejeter des demandes inappropriées.

    Nom : accuracy_bar_chart.png
Affichages : 23816
Taille : 89,7 Ko

    Les modèles GPT-3.5 et ChatGPT affichent des performances impressionnantes dans divers scénarios de traitement du langage naturel, dépassant souvent les modèles de langage explicitement formés pour des domaines spécifiques. Les données d'entraînement des modèles GPT ne sont pas complètement connues, mais les modèles ont probablement vu des textes juridiques provenant de sources publiques. Cependant, étant donné la nature complexe du langage juridique et l'aspect généraliste de GPT-3.5, la question de savoir si GPT-3.5 ou des modèles comparables pourraient réussir dans les évaluations de tâches juridiques reste ouverte.

    Ainsi, l'équipe a décidé de tester le modèle de langage GPT-3.5 d'OpenAI sur la section à choix multiple de l'examen du barreau, connue sous le nom de Multistate Bar Examination (MBE). Pour ces tests, les chercheurs n'utilisent que des invites de type "zero-shot". Dans la littérature sur l'ingénierie des invites, le terme "zéro-shot" fait souvent référence à un contexte où des données étiquetées zéro sont utilisées pour l'entraînement ou l'inférence de modèles de langage. Dans un sens plus large, "zero-shot" fait référence à "l'apprentissage d'un modèle de langage pour faire quelque chose qu'il n'a pas été explicitement formé à faire".

    Le MBE fait partie de l'examen complet, comprend environ 200 questions et est conçu pour tester les connaissances juridiques et la compréhension de la lecture. Selon les chercheurs, les scénarios fictifs exigent une maîtrise sémantique et syntaxique de la langue anglaise supérieure à la moyenne. Le graphique et le tableau ci-dessus montrent clairement que GPT ne réussit pas encore l'examen général à choix multiple. Selon les chercheurs, GPT-3.5 a été capable de donner des réponses correctes aux questions avec une variété d'invites, mais la plus réussie était une invite qui demandait au modèle de classer les trois meilleures réponses.

    GPT dépasse largement le "taux de chance de base" de 25 %. De plus, GPT a atteint le taux de réussite moyen pour au moins deux catégories, Preuves et Délits. En moyenne, toutes catégories confondues, GPT a un taux de réussite inférieur d'environ 17 % à celui des candidats humains. Dans le cas de la preuve, des délits civils et de la procédure civile, cet écart est négligeable ou à un chiffre. Cependant, les chercheurs affirment que, pour les autres catégories de droit constitutionnel, de biens immobiliers, de contrats et de droit pénal, l'écart est beaucoup plus important, allant jusqu'à 36 % dans le cas du droit pénal.

    Pour le test, l'équipe a utilisé le matériel de préparation de la National Conference of Bar Examiners (NCBE), l'organisation qui crée la majeure partie des examens du barreau. Sur le graphique ci-dessus, la zone bleue indique la moyenne des étudiants du NCBE, et la zone rouge indique le meilleur choix généré par GPT. Comme vous pouvez le voir, pour les preuves (Evidence) en particulier, la machine est prête à battre l'homme. Les auteurs, qui sont des experts en droit, se sont dits extrêmement surpris par les résultats. Ils s'attendent à ce que GPT-4 soit capable de réussir le MBE lorsque le nouveau modèle sera publié par OpenAI.

    Nom : accuracy_bar_chart_progression.png
Affichages : 14104
Taille : 39,3 Ko

    Les auteurs de l'étude affirment que GPT-3.5 dépasse largement les performances attendues : « malgré les milliers d'heures passées sur des tâches connexes au cours des deux dernières décennies entre les auteurs, nous ne nous attendions pas à ce que GPT-3.5 fasse preuve d'une telle compétence face à des invites de type "zero-shot" avec un effort minimal de modélisation et d'optimisation ». Selon les chercheurs, l'histoire du développement de grands modèles de langage (Large Language Models - LLM) suggère fortement que de tels modèles pourraient bientôt réussir toutes les catégories de la partie MBE de l'examen du barreau.

    Sur la base de preuves anecdotiques liées à GPT-4 et à la famille de modèles Bloom de la société LAION, les chercheurs pensent que cela pourrait se produire dans les 18 prochains mois. « Bien que notre capacité à interpréter comment ou pourquoi GPT-3.5 choisit entre les réponses candidates soit limitée par la compréhension des LLM et la nature propriétaire de GPT, l'historique des problèmes similaires suggère fortement qu'un LLM pourrait bientôt passer la barre. Il est tout à fait possible que cela se produise dans les 0 à 18 prochains mois », ont écrit les chercheurs dans le rapport de l'étude.

    Leur étude relance le débat sur le remplacement des avocats humains par des systèmes d'IA. La Chine s'emploie depuis plusieurs années à mettre en place un système de « tribunaux intelligents » en intégrant l'IA dans son système judiciaire. Le nouveau système exige que les juges consultent l'IA sur chaque cas, et s'ils rejettent une recommandation de l'IA, ils doivent fournir une explication écrite. Un étude publiée en juillet 2022 indique qu'en remplaçant les avocats humains par l'IA, le système judiciaire chinois a économisé 45 milliards de dollars en frais entre 2019 et 2021, soit la moitié du total des honoraires des avocats en Chine en 2021.

    Face à cela, Zhang Linghan, professeur de droit chinois, met en garde : « nous devons être attentifs à l'érosion du pouvoir judiciaire par les entreprises technologiques. Cela pourrait améliorer l'efficacité et l'équité dans une certaine mesure, mais les humains perdront progressivement leur libre arbitre avec une dépendance croissante à la technologie ». Dans certains pays, y compris en France, des cabinets d'avocats font appel à des entreprises qui vantent des technologies juridiques capables d'analyser des millions de décisions de justice à la seconde, ce qui permet par exemple d'évaluer la probabilité de succès d'une action contentieuse.

    Certaines des entreprises technologiques qui proposent ces systèmes construisent également des modèles de comportement des juges sur certaines questions ou face à différents arguments juridiques. Avec de telles informations, les cabinets d'avocats peuvent optimiser leurs stratégies devant les tribunaux. Cependant, en juin 2019, la France a décidé de bannir les IA de prédiction des comportements des juges. Selon certains experts, les technologies de justice prédictive représentent une menace pour la société. Ils mettent en avant les biais que peuvent comporter ces systèmes d'IA, notamment sur le plan racial, sexuel et social.

    Sources : Des chercheurs du Chicago Kent College of Law, de la Bucerius Law School Hamburg et du Stanford Center for Legal Informatics (CodeX), Rapport de l'étude (PDF), Données complémentaires à l'étude

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des résultats obtenus par GPT-3.5 à l'examen du barreau ?
    Pensez-vous également que GPT-4 pourrait bientôt réussir l'examen du barreau ? Pourquoi ?
    Quels impacts ces modèles de langage pourraient-ils avoir sur le système judiciaire ?
    À votre avis, les systèmes d'IA pourraient-ils remplacer les avocats et les juges dans les tribunaux ?

    Voir aussi

    En remplaçant les avocats humains par l'IA, le système judiciaire chinois aurait économisé 45 Mds $ en frais entre 2019 et 2021, soit la moitié du total des honoraires des avocats en Chine en 2021

    La France bannit les IA de prédiction des comportements des juges, les technologies de justice prédictive sont-elles une menace pour la société ?

    Une intelligence artificielle peut-elle être un juge équitable dans un tribunal ? L'Estonie pense que oui

    Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #42
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 760
    Points : 7 185
    Points
    7 185
    Par défaut
    Cela me rappelle 'le monde du non-A' d'A. E. Van Vogt où le président mondial est désigné par une IA... bypassée par un hacker.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  3. #43
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 386
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 386
    Points : 196 504
    Points
    196 504
    Par défaut Pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant propose une app
    Pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant propose une application d'analyse de texte
    qui détecte s'il a été rédigé par une IA

    Un professeur de l'université de Caroline du Sud a tiré la sonnette d'alarme après avoir découvert que l'un de ses étudiants a utilisé ChatGPT, le nouveau chatbot d'IA du laboratoire OpenAI, pour rédiger sa dissertation. Pour le professeur, cette IA, vielle de quelques semaines à peine et facilement accessible au public, porte un nouveau coup à l'enseignement supérieur, déjà en proie à une tricherie endémique.

    Les propositions de solutions se multiplient pour endiguer le problème. Parmi elles, celle d'un étudiant de Princeton : une application qui vise à savoir si des essais ont été écrits par des IA comme ChatGPT. L'application analyse le texte pour voir à quel point il est écrit de manière aléatoire, ce qui lui permet de détecter s'il a été écrit par l'IA. Le site Web hébergeant l'application, construit par Edward Tian, a planté en raison d'un trafic élevé.


    En lançant ChatGPT début décembre, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

    « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    « C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.

    Tout d'abord, il a introduit le texte suspect dans un logiciel conçu par les producteurs de ChatGPT pour déterminer si la réponse écrite avait été formulée par l'IA. Il a obtenu une correspondance probable à 99,9 %. Mais contrairement à un logiciel standard de détection du plagiat - ou à un devoir universitaire bien rédigé - le logiciel ne proposait aucune citation. Hick a ensuite essayé de produire le même essai en posant à ChatGPT une série de questions qu'il imaginait avoir été posées par son étudiant. Le professeur affirme avoir obtenu des réponses similaires, mais aucune correspondance directe, car l'outil formule des réponses uniques.

    Finalement, Hick a confronté l'étudiant, qui a avoué avoir utilisé ChatGPT et a échoué au cours en conséquence. L'étudiant a également été remis au doyen de l'école. Mais Hick craint que d'autres cas soient presque impossibles à prouver et que lui et ses collègues soient bientôt inondés de travaux frauduleux. Des universités comme Furman chercheraient à établir des protocoles académiques formels pour cette technologie en développement. Pour l'instant, Hick dit que le mieux qu'il peut faire est de surprendre les étudiants suspects avec des examens oraux impromptus, en espérant les prendre au dépourvu sans leur armure technologique.

    Vient alors GPTZero

    Une nouvelle application peut détecter si votre essai a été écrit par ChatGPT, car les chercheurs cherchent à lutter contre le plagiat de l'IA. Edward Tian, étudiant en informatique à Princeton, a déclaré avoir passé la période des vacances à développer GPTZero.

    Il a partagé deux vidéos comparant l'analyse de l'application d'un article du New Yorker et une lettre écrite par ChatGPT. Il a correctement identifié qu'ils ont été respectivement écrits par un humain et une IA.

    Nom : gpt.png
Affichages : 12082
Taille : 160,9 Ko

    GPTZero note le texte sur sa « perplexité et sa rafale [burstiness] » (se référant à sa complexité et à son écriture aléatoire). Dans les statistiques, la rafale [burstiness] est l'augmentation et la diminution intermittentes de l'activité ou de la fréquence d'un événement. L'une des mesures de la rafale est le facteur Fano, un rapport entre la variance et la moyenne des comptages.

    L'application était si populaire qu'elle a planté « en raison d'un trafic Web étonnamment élevé » et affiche actuellement une page d'inscription bêta. GPTZero est toujours disponible sur la page Streamlit de Tian, après que les hébergeurs du site Web sont intervenus pour augmenter sa capacité.

    Tian, un ancien journaliste de données de la BBC, a déclaré qu'il était motivé pour construire GPTZero après avoir constaté une augmentation des cas de plagiat de l'IA.

    « Les enseignants du secondaire voudront-ils que les élèves utilisent ChatGPT pour écrire leurs essais d'histoire ? Probablement pas », a-t-il tweeté.

    Nom : Tian.png
Affichages : 9808
Taille : 19,9 Ko

    ChatGPT met en place son propre système de lutte contre le plagiat en facilitant l'identification

    Alors que les milieux universitaires craignent de plus en plus ce nouveau chatbot IA capable de rédiger des essais convaincants (même si certains faits qu'il utilise ne sont pas strictement vrais), la société de la Silicon Valley à l'origine du chatbot s'est dépêchée de faire du fingerprinting de sortie pour éviter une vague de plagiat assisté par l'IA.

    ChatGPT, un générateur de texte basé sur l'IA qui a été mis à la disposition du public début décembre, a été loué et critiqué pour la qualité de sa sortie. Les utilisateurs peuvent lui poser des questions allant de simples requêtes factuelles (« Quelle est la plus haute montagne de France ? ») à des demandes absurdes (« Écris un limerick [poème humoristique de cinq vers] expliquant la règle du hors-jeu ») et recevoir des réponses claires et cohérentes rédigées en anglais naturel.

    Les chefs d'établissement et les professeurs d'université ont exprimé leur inquiétude quant au fait que ChatGPT, qui peut fournir des réponses convaincantes à consonance humaine aux questions d'examen, pourrait déclencher une vague de tricherie dans les devoirs et les cours d'examen.

    Aussi, les développeurs du bot, OpenAI, basé à San Francisco, tentent de contrer le risque en « filigranant » la sortie du bot et en rendant le plagiat plus facile à repérer.

    Lors d'une conférence à l'Université du Texas, le chercheur invité d'OpenAI, Scott Aaronson, a déclaré que l'entreprise travaillait sur un système pour contrer la triche en « marquant statistiquement les sorties ». La technologie fonctionnerait en modifiant subtilement le choix spécifique des mots sélectionnés par ChatGPT, a déclaré Aaronson, d'une manière qui ne serait pas perceptible pour un lecteur, mais serait statistiquement prévisible pour quiconque recherche des signes de texte généré par une machine.

    « Nous voulons qu'il soit beaucoup plus difficile de prendre une sortie GPT et de la faire passer comme si elle provenait d'un humain », a déclaré Aaronson. « Cela pourrait être utile pour prévenir le plagiat universitaire, évidemment, mais aussi, par exemple, la génération massive de propagande - vous savez, spammer chaque blog avec des commentaires apparemment sur le sujet soutenant l'invasion de l'Ukraine par la Russie sans même un bâtiment plein de trolls à Moscou. Ou se faire passer pour quelqu'un en imitant son style d'écriture afin de l'incriminer ».

    « Nous avons en fait un prototype fonctionnel du schéma de filigrane », a ajouté Aaronson. « Cela semble fonctionner assez bien - empiriquement, quelques centaines [de mots] semblent être suffisants pour obtenir un signal raisonnable que, oui, ce texte provient de GPT ».

    Le bot ne fonctionne pas parfaitement. Il a tendance à « colorer » des évènements qui ne sont pas strictement vrais, ce que l'analyste technologique Benedict Evans a décrit « comme un étudiant de premier cycle répondant avec confiance à une question pour laquelle il n'a assisté à aucune conférence. Cela ressemble à un connerie confiante qui peut écrire des bêtises très convaincantes ».

    Mais la technologie a été adoptée avec empressement par exactement ce type d'étudiant, qui doit produire rapidement un essai passable. La sortie de ChatGPT n'a déclenché aucun détecteur de plagiat conventionnel jusqu'à présent, car le texte qu'il produit n'a pas été écrit auparavant, laissant les évaluateurs du mal à trouver comment identifier les tricheurs.

    Conclusion

    ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses « aptitudes ». Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis. Cette édition de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US porte sur 4 questions. Les postulants sont libres de formuler les réponses de la manière qui leur convient. Un internaute a proposé une compilation des réponses proposées par ChatGPT après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles.

    Code Java : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    117
    118
    119
    120
    121
    122
    123
    124
    125
    126
    127
    128
    129
    130
    131
    132
    133
    134
    135
    136
    137
    138
    139
    140
    141
    142
    143
    144
    145
    146
    147
    148
    149
    150
    151
    152
    153
    154
    155
    156
    157
    158
    159
    160
    161
    162
    163
    164
    165
    166
    167
    168
    169
    170
    171
    172
    173
    // 1a
    public int getScore()
    {
    int score = 0;
    *
    // Check if this is a bonus game
    if (isBonus()) {
    // If it is, triple the final score
    score = 3;
    }
    *
    // Iterate through each level
    for (int i = 1; i <= 3; i++) {
    // Check if the goal for the current level has been reached
    if (level[i].goalReached()) {
    // If it has, add the points for that level to the score
    score += level[i].getPoints();
    }
    }
    *
    // Return the final score
    return score;
    }
    *
    // 1b
    public int playManyTimes(int num)
    {
    // Keep track of the highest score seen so far
    int highestScore = 0;
    *
    // Iterate for the number of games specified in the num parameter
    for (int i = 0; i < num; i++) {
    // Create a new game
    Game game = new Game();
    *
    // Simulate the play of the game
    game.play();
    *
    // Compute the score for the game
    int score = game.getScore();
    *
    // If the score for this game is higher than the highest score seen so far,
    // update the highest score
    if (score > highestScore) {
    highestScore = score;
    }
    }
    *
    // Return the highest score seen
    return highestScore;
    }
    *
    // 2
    public class Textbook extends Book {
    private int edition;
    *
    /**
    * Creates a new Textbook with given title, price, and edition number.
    *
    * @param bookTitle the title of the textbook
    * @param bookPrice the price of the textbook
    * @param bookEdition the edition number of the textbook
    */
    public Textbook(String bookTitle, double bookPrice, int bookEdition) {
    super(bookTitle, bookPrice);
    this.edition = bookEdition;
    }
    *
    /**
    * Returns the edition number of the textbook.
    *
    * @return the edition number of the textbook
    */
    public int getEdition() {
    return edition;
    }
    *
    /**
    * Returns the title, price, and edition number of the Textbook as a string.
    *
    * @return the title, price, and edition number of the Textbook as a string
    */
    @Override
    public String getBookInfo() {
    return super.getBookInfo() + "-" + edition;
    }
    *
    /**
    * Returns true if this Textbook is a valid substitute for the Textbook referenced by the parameter
    * of the canSubstituteFor method. Returns false otherwise.
    *
    * @param other the Textbook to compare to this Textbook
    * @return true if this Textbook is a valid substitute for the Textbook referenced by the parameter
    * of the canSubstituteFor method, false otherwise
    */
    public boolean canSubstituteFor(Textbook other) {
    return this.getTitle().equals(other.getTitle()) && this.getEdition() >= other.getEdition();
    }
    }
    *
    // 3a
    *
    public double getAverageRating()
    {
    double totalRating = 0;
    int numReviews = allReviews.length;
    *
    for (Review review : allReviews)
    {
    totalRating += review.getRating();
    }
    *
    return totalRating / numReviews;
    }
    *
    // 3b
    *
    public ArrayList<String> collectComments()
    {
    ArrayList<String> formattedComments = new ArrayList<>();
    *
    for (int i = 0; i < allReviews.length; i++)
    {
    String comment = allReviews[i].getComment();
    if (comment.contains("!"))
    {
    formattedComments.add(i + "-" + comment);
    *
    if (!(comment.endsWith(".") || comment.endsWith("!")))
    {
    formattedComments.set(formattedComments.size() - 1, formattedComments.get(formattedComments.size() - 1) + ".");
    }
    }
    }
    *
    return formattedComments;
    }
    *
    // 4a
    *
    public void repopulate()
    {
    Random rand = new Random();
    for (int i = 0; i < grid.length; i++) {
    for (int j = 0; j < grid[i].length; j++) {
    int val = rand.nextInt(MAX - 1) + 1;
    while (val % 10 != 0 || val % 100 == 0) {
    val = rand.nextInt(MAX - 1) + 1;
    }
    grid[i][j] = val;
    }
    }
    }
    *
    // 4b
    *
    public int countIncreasingCols()
    {
    int count = 0;
    for (int i = 0; i < grid[0].length; i++) {
    boolean isIncreasing = true;
    for (int j = 1; j < grid.length; j++) {
    if (grid[j][i] < grid[j - 1][i]) {
    isIncreasing = false;
    break;
    }
    }
    if (isIncreasing) {
    count++;
    }
    }
    return count;
    }

    Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.

    Par ailleurs, ce n'est pas la première fois qu'un modèle d'IA d'OpenAI est utilisé pour tenter de tromper la vigilance des gens, parfois même des personnes les plus avisées. En août 2020, un faux billet de blogue généré par GPT-3, une autre IA de traitement du langage naturel (NLP) d'OpenAI, a trompé des dizaines de milliers de personnes, car il était étonnamment bien écrit pour automate. Le billet de blogue, publié par Liam Porr, étudiant à l’université de Californie à Berkeley, s'est même hissé parmi les sujets les mieux classés sur le site communautaire Hacker News. Porr a déclaré qu'il voulait prouver que GPT-3 pouvait tromper les gens.

    GPTZero
    page Streamlit d'Edward Tian

    Sources : Edward Tian (1, 2), Scott Aaronson

    Et vous ?

    Que pensez-vous de ChatGPT de façon générale ?
    Un tel outil devrait-il être autorisé au public de la sorte ou soumis à des restrictions comme DALL-E 2 ? Dans quelle mesure ?
    Comprenez-vous la réaction de Google qui, se sentant en danger, voudrait développer un produit concurrent ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #44
    Membre éprouvé Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    754
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : Transports

    Informations forums :
    Inscription : Septembre 2005
    Messages : 754
    Points : 943
    Points
    943
    Par défaut
    @Marsupial: Belle référence pour un excellent roman, d’un excellent auteur

  5. #45
    Membre actif
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juillet 2021
    Messages
    79
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Juillet 2021
    Messages : 79
    Points : 245
    Points
    245
    Par défaut
    Better call Bot

  6. #46
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 815
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 815
    Points : 50 937
    Points
    50 937
    Par défaut La ville de New York interdit aux étudiants et aux enseignants d’utiliser ChatGPT
    La ville de New York interdit aux étudiants et aux enseignants d’utiliser ChatGPT
    L’intelligence artificielle qui menace les postes des développeurs informatique et inquiète la communauté éducative

    Ce qu’on sait de cette intelligence artificielle de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains la qualifient même de remplaçant de Google. D’ailleurs, Microsoft et OpenAI seraient lancés sur une version du moteur de recherche Bing qui l’intègre. ChatGPT serait d’une « intelligence » telle qu’elle terrorise les enseignants de la filière informatique qui redoutent une aggravation de la tricherie dans l’enseignement supérieur. La ville de New York cite désormais des raisons similaires pour décider de son bannissement : interdiction aux étudiants et enseignants d’en faire usage. La décision n’est pas sans susciter de controverse.

    « En raison de préoccupations concernant les effets négatifs sur l'apprentissage des élèves, ainsi que la sécurité et l'exactitude du contenu, l'accès à ChatGPT est prohibé sur les réseaux et les appareils des écoles publiques de la ville de New York », déclare un porte-parole du Département de l’éducation de la ville.

    La controverse au sujet de cette décision tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.

    Nom : 1.jpg
Affichages : 23706
Taille : 16,2 Ko

    La contradiction en lien avec la décision de la ville de New York est même susceptible d’enfler si on prend en compte que de tels outils peuvent amener les intervenants de tous bords de la communauté informatique à aiguiser leur créativité. En effet, pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant a proposé une application d'analyse de texte qui détecte s’il a été rédigé par une intelligence artificielle.

    Amjad Masad, fondateur de startup de génie logiciel, rapporte qu’il a demandé à ChatGPT de repérer les erreurs dans son code et de produire un rapport détaillé sur les ratés et sur la manière de le corriger. Ce dernier est arrivé à la conclusion que ChatGPT peut faire office de bon compagnon de débogage qui « ne se contente pas d’expliquer le bogue, mais le corrige et explique la correction. » En cela, ChatGPT est susceptible de contribuer à une amélioration de la productivité des intervenants de la filière de tous bords (élèves, enseignants, ingénieurs, etc.)

    Nom : 2.png
Affichages : 8842
Taille : 53,8 Ko
    Nom : 3.png
Affichages : 8843
Taille : 239,6 Ko

    Le plus grand débat tourne autour de la possibilité de voir les intelligences artificielles rendues au stade où elles sont dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

    Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

    L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu.

    Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.

    Source : Département de l’éducation de New York

    Et vous ?

    Quel commentaire faites-vous de cette décision du Département de l’éducation de New York ? Est-ce un exemple à suivre ?
    Quels sont selon vous les avantages et les inconvénients d’outils comme ChatGPT rendus au stade actuel de leur évolution pour les différents intervenants de la filière informatique (étudiants, enseignants, ingénieurs, etc.)

    Voir aussi :

    Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau, et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA

    Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine

    Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %

    Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #47
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 760
    Points : 7 185
    Points
    7 185
    Par défaut
    Quel commentaire faites-vous de cette décision du Département de l’éducation de New York ? Est-ce un exemple à suivre ?
    Je trouve dommage et très anti-progrès cette décision. A-t-on interdit le web ? On a cherché et trouvé des outils de lutte contre le plagiat. ChatGPT et ses concurrents qui émergeront dans un proche avenir deviennent les assistants facilitant la tâche de tout le monde.


    Quels sont selon vous les avantages et les inconvénients d’outils comme ChatGPT rendus au stade actuel de leur évolution pour les différents intervenants de la filière informatique (étudiants, enseignants, ingénieurs, etc.)
    Pour l'avoir un peu testé, il ne fera pas une application complexe de bout-en-bout. Cela demandera dans sa version actuelle de compléter le code et les parties demandant de la créativité. Une fois connecté à internet, il faudra qu'il cite ses sources ( sites web ) sinon internet va mourir car personne n'ira plus consulter cette relique d'un autre temps. L'IA de ChatGPT représente une révolution industrielle. Son interdiction par le département éducatif de la ville de New-York est la preuve de son impact et la rançon du succès.

    ChatGPT sur le store Apple rendant l'interdiction sur le réseau universitaire new-yorkais caduque.

    Une discussion commençant avec la triche à l'aide de ChatGPT et finissant sur comment cela peut aider le travail de professeur. Je me reconvertis prof bénévole à distance
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  8. #48
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 815
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 815
    Points : 50 937
    Points
    50 937
    Par défaut OpenAI en pourparlers dans le cadre d’une offre publique d’achat qui pourrait doubler sa valorisation
    La startup OpenAI en pourparlers pour vendre des actions dans le cadre d’une offre publique d’achat
    Susceptible de faire passer sa valorisation à 29 milliards de dollars

    OpenAI, le laboratoire de recherche à l'origine de ChatGPT, est en pourparlers pour vendre des actions existantes dans le cadre d'une offre publique d'achat qui susceptible de faire passer la valorisation de la société à environ 29 milliards de dollars, selon des tiers au courant des développements en interne. L’opération en ferait l'une des startups américaines les plus précieuses sur le papier, bien qu'elle génère peu de revenus.

    Les sociétés de capital-risque Thrive Capital et Founders Fund sont en pourparlers pour investir dans l'opération, qui totaliserait au moins 300 millions de dollars en ventes d'actions. L'opération est structurée comme une offre publique d'achat, les investisseurs achetant des actions aux actionnaires existants tels que les employés.

    Nom : 1.jpg
Affichages : 38804
Taille : 44,4 Ko

    La nouvelle opération est censée doubler l'évaluation d'OpenAI par rapport à une précédente offre publique d'achat réalisée en 2021, lorsqu'OpenAI était évaluée à environ 14 milliards de dollars. OpenAI a généré des dizaines de millions de dollars de revenus, en partie en vendant son intelligence artificielle aux développeurs, mais certains investisseurs ont exprimé leur scepticisme quant à la capacité de l'entreprise à générer des revenus significatifs à partir de sa technologie. Aucun accord définitif n'a été conclu et les conditions pourraient changer selon les retours des tiers au courant des tractations.

    L'année dernière, OpenAI a lancé une série de produits basés sur l'intelligence artificielle qui ont attiré l'attention du public, notamment le programme de génération d'images Dall-E 2 et le chatbot ChatGPT. Si l'offre est acceptée à cette valeur, OpenAI sera l'une des rares startups capables de lever des fonds à des valeurs plus élevées sur le marché privé, où les investisseurs se sont retirés des nouvelles opérations en raison de la déroute technologique de l'année dernière.

    En 2019, Microsoft a investi un milliard de dollars dans OpenAI et est devenu son partenaire privilégié pour la commercialisation de nouvelles technologies pour des services tels que le moteur de recherche Bing et l'application de conception Microsoft Design. Le géant technologique serait à pied d’œuvre pour augmenter son investissement dans OpenAI. D’ailleurs, les deux entreprises travailleraient sur une version du moteur de recherche Bing qui intègre l’intelligence artificielle ChatGPT.

    Ce qu’on sait de cette intelligence artificielle de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains la qualifient même de remplaçant de Google. Le géant du moteur de recherches a d’ailleurs lancé une alerte rouge à ses équipes pour le développement d’un concurrent à ChatGPT.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau, et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA

    Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine

    Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %

    Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #49
    Membre chevronné

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    Juin 2002
    Messages
    598
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2002
    Messages : 598
    Points : 2 016
    Points
    2 016
    Par défaut
    Pour un truc qui à la base était une association à but non lucratif, on semble s'en éloigner de plus en plus.
    C'est vraiment dommage, même si cela est peut-être nécessaire pour faire vivre le projet.
    --
    vanquish

  10. #50
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 760
    Points : 7 185
    Points
    7 185
    Par défaut
    mais certains investisseurs ont exprimé leur scepticisme quant à la capacité de l'entreprise à générer des revenus significatifs à partir de sa technologie.
    Open AI, société à but lucratif limité, vise des revenus de 200 millions en 2023 et un milliard en 2024. Cela la rend appétissante pour les GAFAM car ce n'est que le début et le fait d'être valorisée 29 milliards donne une absorption plus difficile.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  11. #51
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 439
    Points
    2 439
    Par défaut
    Citation Envoyé par vanquish Voir le message
    Pour un truc qui à la base était une association à but non lucratif, on semble s'en éloigner de plus en plus.
    C'est vraiment dommage, même si cela est peut-être nécessaire pour faire vivre le projet.
    Ouais puis j'ai l'impression que c'est surtout du vent.
    Quel projets ont-il open sourcé malgré leur nom?
    Leurs produits phares sont toujours fermés, et c'est d'autres entreprises qui proposent une alternative open source à GPT ou Dall-e... et on au moins la décence de donner un vrai accès au public de leurs IA nourries en masse avec des données qui leur appartiennent pas.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  12. #52
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 050
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 050
    Points : 2 087
    Points
    2 087
    Par défaut
    Alors comme ça, ChatGPT est capable de rédiger une dissertation proprement, et Microsoft n'est toujours pas capable d'écrire une doc en plaçant les mots dans un ordre intelligible ?

  13. #53
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 386
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 386
    Points : 196 504
    Points
    196 504
    Par défaut L'une des conférences les plus prestigieuses au monde sur l'IA bannit l'utilisation de chatGPT
    L'une des conférences les plus prestigieuses au monde sur l'IA bannit l'utilisation de chatGPT et tous les outils de langages IA,
    dans la rédaction d'articles universitaires

    L'une des conférences sur l'apprentissage automatique les plus prestigieuses au monde a interdit aux auteurs d'utiliser des outils d'IA comme ChatGPT pour rédiger des articles scientifiques, déclenchant un débat sur le rôle du texte généré par l'IA dans le milieu universitaire. Pour mémoire, l'apprentissage automatique (ou machine learning) est un champ d'étude de l'intelligence artificielle qui vise à donner aux machines la capacité « d'apprendre » à partir de données, via des modèles mathématiques. Une ironie de ne pas utiliser un outil qui s'appuie sur l'apprentissage automatique pour démontrer son évolution en rédigeant des articles universitaires dans cette discipline ?

    En lançant ChatGPT début décembre, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

    « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    « C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.

    Mais ChatGPT n'est pas uniquement capable de rédiger des essais convaincants.

    ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses « aptitudes ». Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis, édition qui porte sur 4 questions. Les postulants sont libres de formuler les réponses de la manière qui leur convient. Un internaute a proposé une compilation des réponses proposées par ChatGPT après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles.

    Code Java : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    117
    118
    119
    120
    121
    122
    123
    124
    125
    126
    127
    128
    129
    130
    131
    132
    133
    134
    135
    136
    137
    138
    139
    140
    141
    142
    143
    144
    145
    146
    147
    148
    149
    150
    151
    152
    153
    154
    155
    156
    157
    158
    159
    160
    161
    162
    163
    164
    165
    166
    167
    168
    169
    170
    171
    172
    173
    // 1a
    public int getScore()
    {
    int score = 0;
    *
    // Check if this is a bonus game
    if (isBonus()) {
    // If it is, triple the final score
    score = 3;
    }
    *
    // Iterate through each level
    for (int i = 1; i <= 3; i++) {
    // Check if the goal for the current level has been reached
    if (level[i].goalReached()) {
    // If it has, add the points for that level to the score
    score += level[i].getPoints();
    }
    }
    *
    // Return the final score
    return score;
    }
    *
    // 1b
    public int playManyTimes(int num)
    {
    // Keep track of the highest score seen so far
    int highestScore = 0;
    *
    // Iterate for the number of games specified in the num parameter
    for (int i = 0; i < num; i++) {
    // Create a new game
    Game game = new Game();
    *
    // Simulate the play of the game
    game.play();
    *
    // Compute the score for the game
    int score = game.getScore();
    *
    // If the score for this game is higher than the highest score seen so far,
    // update the highest score
    if (score > highestScore) {
    highestScore = score;
    }
    }
    *
    // Return the highest score seen
    return highestScore;
    }
    *
    // 2
    public class Textbook extends Book {
    private int edition;
    *
    /**
    * Creates a new Textbook with given title, price, and edition number.
    *
    * @param bookTitle the title of the textbook
    * @param bookPrice the price of the textbook
    * @param bookEdition the edition number of the textbook
    */
    public Textbook(String bookTitle, double bookPrice, int bookEdition) {
    super(bookTitle, bookPrice);
    this.edition = bookEdition;
    }
    *
    /**
    * Returns the edition number of the textbook.
    *
    * @return the edition number of the textbook
    */
    public int getEdition() {
    return edition;
    }
    *
    /**
    * Returns the title, price, and edition number of the Textbook as a string.
    *
    * @return the title, price, and edition number of the Textbook as a string
    */
    @Override
    public String getBookInfo() {
    return super.getBookInfo() + "-" + edition;
    }
    *
    /**
    * Returns true if this Textbook is a valid substitute for the Textbook referenced by the parameter
    * of the canSubstituteFor method. Returns false otherwise.
    *
    * @param other the Textbook to compare to this Textbook
    * @return true if this Textbook is a valid substitute for the Textbook referenced by the parameter
    * of the canSubstituteFor method, false otherwise
    */
    public boolean canSubstituteFor(Textbook other) {
    return this.getTitle().equals(other.getTitle()) && this.getEdition() >= other.getEdition();
    }
    }
    *
    // 3a
    *
    public double getAverageRating()
    {
    double totalRating = 0;
    int numReviews = allReviews.length;
    *
    for (Review review : allReviews)
    {
    totalRating += review.getRating();
    }
    *
    return totalRating / numReviews;
    }
    *
    // 3b
    *
    public ArrayList<String> collectComments()
    {
    ArrayList<String> formattedComments = new ArrayList<>();
    *
    for (int i = 0; i < allReviews.length; i++)
    {
    String comment = allReviews[i].getComment();
    if (comment.contains("!"))
    {
    formattedComments.add(i + "-" + comment);
    *
    if (!(comment.endsWith(".") || comment.endsWith("!")))
    {
    formattedComments.set(formattedComments.size() - 1, formattedComments.get(formattedComments.size() - 1) + ".");
    }
    }
    }
    *
    return formattedComments;
    }
    *
    // 4a
    *
    public void repopulate()
    {
    Random rand = new Random();
    for (int i = 0; i < grid.length; i++) {
    for (int j = 0; j < grid[i].length; j++) {
    int val = rand.nextInt(MAX - 1) + 1;
    while (val % 10 != 0 || val % 100 == 0) {
    val = rand.nextInt(MAX - 1) + 1;
    }
    grid[i][j] = val;
    }
    }
    }
    *
    // 4b
    *
    public int countIncreasingCols()
    {
    int count = 0;
    for (int i = 0; i < grid[0].length; i++) {
    boolean isIncreasing = true;
    for (int j = 1; j < grid.length; j++) {
    if (grid[j][i] < grid[j - 1][i]) {
    isIncreasing = false;
    break;
    }
    }
    if (isIncreasing) {
    count++;
    }
    }
    return count;
    }

    Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.

    D'ailleurs, en parlant de développement, un utilisateur indique que : « ChatGP pourrait être un bon compagnon de débogage*; il explique non seulement le bogue mais le corrige et explique le correctif » :

    Nom : correction.png
Affichages : 42056
Taille : 239,6 Ko

    ChatGPT, ou un outil similaire, ne doit pas être utilisé pour rédiger des articles universitaires

    C'est ce qu'a décidé l'International Conference on Machine Learning (ICML).

    Annonçant sa politique plus tôt cette semaine, elle a déclaré : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article ». La nouvelle a suscité de nombreuses discussions sur les réseaux sociaux, des universitaires et des chercheurs en IA défendant et critiquant la politique. Les organisateurs de la conférence ont répondu en publiant une déclaration plus longue expliquant leur pensée.

    Nom : sebastien.png
Affichages : 9464
Taille : 36,8 Ko

    Selon l'ICML, la montée en puissance de modèles de langage d'IA accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».

    Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.

    « Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.

    En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.

    Cependant, les questions auxquelles l'ICML s'attaque peuvent ne pas être facilement résolues

    La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. Par exemple, le ministère de l'Éducation de la ville de New York a bloqué l'accès à l'outil pour toute personne sur son réseau cette semaine.

    En fait, à chaque fois qu'une organisation a bloqué l'utilisation de cet outil, il existait différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de « faits » sur lesquels s'appuyer (juste la capacité d'écrire des déclarations plausibles). Cela signifie qu'ils ont tendance à présenter de fausses informations comme des vérités, car le fait qu'une phrase donnée semble plausible ne garantit pas sa factualité.

    Dans le cas de l'interdiction par ICML des textes générés par l'IA, un autre défi potentiel consiste à faire la distinction entre l'écriture qui n'a été que « polie » ou « éditée » par l'IA et celle qui a été « entièrement produite" par ces outils ». À quel moment un certain nombre de petites corrections guidées par l'IA constituent-elles une réécriture plus importante ? Que se passe-t-il si un utilisateur demande à un outil d'IA de résumer son article dans un résumé accrocheur ? Est-ce que cela compte comme du texte fraîchement généré (parce que le texte est nouveau) ou un simple polissage (parce que c'est un résumé des mots que l'auteur a écrits) ?

    Avant que l'ICML ne clarifie les attributions de sa politique, de nombreux chercheurs craignaient qu'une éventuelle interdiction des textes générés par l'IA ne soit également préjudiciable à ceux qui ne parlent ni n'écrivent l'anglais comme langue maternelle. Le professeur Yoav Goldberg de l'Université Bar-Ilan en Israël a déclaré qu'une interdiction générale de l'utilisation des outils d'écriture de l'IA serait un acte de contrôle contre ces communautés.

    « Il existe un biais inconscient clair lors de l'évaluation des articles dans l'examen par les pairs pour préférer les plus fluides, et cela joue en faveur des locuteurs natifs », explique Goldberg. « En utilisant des outils comme ChatGPT pour aider à exprimer leurs idées, il semble que de nombreux locuteurs non natifs pensent qu'ils peuvent "uniformiser les règles du jeu" sur ces questions ». a estimé Goldberg. Ce dernier est persuadé que « de tels outils peuvent aider les chercheurs à gagner du temps, ainsi qu'à mieux communiquer avec leurs pairs ».

    Mais les outils d'écriture d'IA sont également qualitativement différents des logiciels plus simples comme Grammarly. Deb Raji, chercheuse en intelligence artificielle à la Fondation Mozilla, a déclaré qu'il était logique que l'ICML introduise une politique spécifiquement destinée à ces systèmes. Comme Goldberg, elle a déclaré avoir entendu des anglophones non natifs dire que de tels outils peuvent être « incroyablement utiles » pour la rédaction d'articles, et a ajouté que les modèles linguistiques ont le potentiel d'apporter des modifications plus radicales au texte.

    « Je vois les LLM comme tout à fait distincts de quelque chose comme la correction automatique ou la grammaire, qui sont des outils correctifs et éducatifs », a déclaré Raji. « Bien qu'ils puissent être utilisés à cette fin, les LLM ne sont pas explicitement conçus pour ajuster la structure et la langue du texte déjà écrit - ils ont également d'autres capacités plus problématiques, telles que la génération de nouveaux textes et de spam ».

    Goldberg a déclaré que même s'il pensait qu'il était certainement possible pour les universitaires de générer des articles entièrement à l'aide de l'IA, « ils sont très peu incités à le faire ». « En fin de compte, les auteurs signent sur le papier et ont une réputation à tenir », a-t-il déclaré. « Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ».

    Ce point est particulièrement important étant donné qu'il n'existe aucun moyen totalement fiable de détecter le texte généré par l'IA. Même l'ICML note qu'une détection infaillible est « difficile » et que la conférence n'appliquera pas son interdiction de manière proactive en exécutant les soumissions via un logiciel de détection. Au lieu de cela, elle n'enquêtera que sur les soumissions qui ont été signalées par d'autres universitaires comme suspectes.

    En d'autres termes : en réponse à l'essor des technologies perturbatrices et nouvelles, les organisateurs s'appuient sur des mécanismes sociaux traditionnels pour faire respecter les normes académiques. L'IA peut être utilisée pour peaufiner, éditer ou écrire du texte, mais il appartiendra toujours aux humains d'évaluer sa valeur.

    Source : ICML

    Et vous ?

    Que pensez-vous de la décision de l'ICML de bannir l'utilisation de chatGPT ?
    Que pensez-vous des propos des experts dans le domaine de l'IA qui voient en de tels outils une opportunité pour leurs pairs qui ne sont pas anglophones natifs de mieux présenter leurs idées ?
    « [Les universitaires] sont très peu incités à le faire [se servir d'un outil comme chatGPT pour générer entièrement leurs articles par IA]. Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ». Partagez-vous ce point de vue ?
    D'une manière plus générale, que pensez-vous des outils comme chatGPT ? En avez-vous déjà essayé un ?
    Si oui, lequel et qu'en avez-vous pensé ? Si non, aimeriez-vous en essayer un ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  14. #54
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 760
    Points : 7 185
    Points
    7 185
    Par défaut
    A mon sens, il s'agit du même débat que celui suscité par Victor Hugo avec sa première pièce de théâtre entre les anciens et les modernes en 1831. Depuis, nous savons tous qui a gagné et Victor Hugo est entré à l'académie française. ChatGPT n'entrera pas dans un quelconque ordre mais il marque son temps et le futur en enterrant bon nombre de métiers. Il y aura un avant et un après c'est certain. Sans doute ne restera-t-il pas au top toute sa vie et qu'il y aura mieux. AMECA qui produit des robots humanoïdes reproduisant des expressions humaines a intégré GPT et le résultat est prometteur. Des compagnons de vie pour nos anciens ?
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  15. #55
    Membre averti
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    192
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 192
    Points : 311
    Points
    311
    Par défaut
    L'une des conférences sur l'apprentissage automatique les plus prestigieuses au monde a interdit aux auteurs d'utiliser des outils d'IA comme ChatGPT pour rédiger des articles scientifiques. Une ironie de ne pas utiliser un outil qui s'appuie sur l'apprentissage automatique pour démontrer son évolution en rédigeant des articles universitaires dans cette discipline ?
    Réponse de ChatGPT:

    Il est effectivement surprenant que l'ICML (International Conference on Machine Learning), une conférence sur l'apprentissage automatique, ait décidé de bannir l'utilisation de ChatGPT et d'autres outils d'IA pour rédiger des articles scientifiques. Cela peut sembler ironique, étant donné que l'apprentissage automatique est l'un des domaines de recherche les plus importants et les plus pertinents de l'IA et que ChatGPT est un outil basé sur l'apprentissage automatique.

    Cependant, il est important de noter que la décision de bannir l'utilisation de ChatGPT et d'autres outils d'IA pour rédiger des articles scientifiques a sans doute été prise pour de bonnes raisons. Il est possible que l'ICML ait souhaité encourager les auteurs à rédiger leurs articles eux-mêmes plutôt que de se reposer sur des outils automatisés, ou que l'ICML ait souhaité s'assurer que les articles publiés reflètent véritablement les idées et les recherches des auteurs et ne sont pas simplement le produit de l'utilisation de logiciels de rédaction automatisés.

    Il est difficile de savoir exactement pourquoi l'ICML a pris cette décision sans plus de contexte. Néanmoins, il est important de respecter les décisions prises par les organisateurs de conférences et de s'y conformer.
    Mouais, bof. En fait, rien n'empêche de passer son article au crible de ChatGPT pour se passer d'un relecteur. Encore que cela a ses limites.

  16. #56
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par eric44000 Voir le message
    Réponse de ChatGPT:



    Mouais, bof. En fait, rien n'empêche de passer son article au crible de ChatGPT pour se passer d'un relecteur. Encore que cela a ses limites.
    Si tu as déjà essayé, ce qui est mon cas, il te propose des choses qui ne sont pas bonne, voir pire, quand tu lui demande de l'aide sur du code ou des concepts, il dit des choses fausses, exemple, demande lui ce qu'est le TDD et de te montrer un exemple et tu verras.

    Il ne faut pas oublier que ChatGPT est en version béta et n'est clairement pas au point.
    Ce qui est au point, c'est le modèle de langage, ce qui n'a rien à voir.

    Le modèle de langage c'est la capacité à parler comme si c'était un humain, mais ce qu'il dit lui, est bourré d'erreurs, d'incompréhensions, de choses fausses littéralement, et tout les juniors qui vont s'appuyer sur lui pour apprendre des trucs, je pense par exemple aux élèves dans le monde du dev, vont être bourré de biais car ChatGPT va leur avoir appris des choses tout simplement fausse mais qui auront l'air totalement vraies.

  17. #57
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 760
    Points : 7 185
    Points
    7 185
    Par défaut
    Il s'agit du travail de prof.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  18. #58
    Membre averti
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    192
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 192
    Points : 311
    Points
    311
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Si tu as déjà essayé, ce qui est mon cas, il te propose des choses qui ne sont pas bonne, voir pire, quand tu lui demande de l'aide sur du code ou des concepts, il dit des choses fausses, exemple, demande lui ce qu'est le TDD et de te montrer un exemple et tu verras.

    Il ne faut pas oublier que ChatGPT est en version béta et n'est clairement pas au point.
    Ce qui est au point, c'est le modèle de langage, ce qui n'a rien à voir.

    Le modèle de langage c'est la capacité à parler comme si c'était un humain, mais ce qu'il dit lui, est bourré d'erreurs, d'incompréhensions, de choses fausses littéralement, et tout les juniors qui vont s'appuyer sur lui pour apprendre des trucs, je pense par exemple aux élèves dans le monde du dev, vont être bourré de biais car ChatGPT va leur avoir appris des choses tout simplement fausse mais qui auront l'air totalement vraies.
    Pour l'avoir essayé un peu, je ne trouve pas qu'il fait beaucoup d'erreur et c'est là qu'est le danger de la chose. On a vite fait de lui faire confiance: les élèves d'école primaire et collégiens peuvent leur confier leurs devoirs. Cela passe encore au lycée malgré quelques approximations. Par contre je trouve qu'au niveau universitaire, c'est une buse.

    Alors de là à s'en servir pour rédiger un article scientifique, il y a une abime. L'ICML aurait mieux fait de se taire. Bannir l'utilisation de ChatGPT est d'une telle évidence dans ce cas (surtout par des spécialistes d'IA), que cela devient ridicule de le dire. Qui d'autres qu'eux savent mieux les limitations de l'IA ?

  19. #59
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 050
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 050
    Points : 2 087
    Points
    2 087
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Code Java : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    // 1a
    public int getScore()
    {
    *
    // Check if this is a bonus game
    if (isBonus()) {
    // If it is, triple the final score
    score = 3;
     
    }
    OK. Alors au-dessus, on avait score=1 (par exemple, ça ne marche pas avec 0,5 ou 2).

    Qu'est-ce qu'on avait un peu plus haut ?
    Oups, raté.

    Tripler 0, ça fait 0.

    Ou alors 0 pointé, enfin ça c'est une autre affaire ...

  20. #60
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 050
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 050
    Points : 2 087
    Points
    2 087
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Il s'agit du travail de prof.
    Euh ... Enseigner des choses fausses mais qui ont l'air totalement vraies ?

    Ah, mais alors ça peut expliquer des choses.

    Par exemple pourquoi nous en sommes là.

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 23h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 11h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 11h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 12h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 09h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo