2 pièce(s) jointe(s)
Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau
Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau
et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA
Des chercheurs du Chicago Kent College of Law, de la Bucerius Law School de Hambourg et du Stanford Center for Legal Informatics (CodeX) ont testé GPT-3.5 sur des questions de l'examen du barreau américain. Sur la base des résultats obtenus lors du test, ils prévoient que GPT-4, ainsi que des modèles comparables, pourraient être en mesure de réussir l'examen très bientôt. Sans formation spécifique, GPT-3.5 a obtenu un taux de précision global de 50,3 %. Les examinateurs estiment que c'est mieux que ce que beaucoup de diplômés de l'école de droit peuvent atteindre. Et en particulier, GPT a atteint le taux de réussite moyen pour deux sujets : Preuves et Délits.
Aux États-Unis, presque toutes les juridictions exigent un examen de licence professionnelle connu sous le nom de "Bar Exam". En réussissant cet examen, les avocats sont admis au barreau d'un État américain. Dans la plupart des cas, les candidats doivent suivre au moins sept ans d'études postsecondaires, dont trois ans dans une école de droit accréditée. Selon les analystes, la préparation de l'examen prend des semaines, voire des mois, et environ une personne sur cinq échoue au premier essai. Dans le cadre d'une étude, les chercheurs ont examiné comment le modèle GPT-3.5, qui sert de base à ChatGPT, se comporte à l'examen du barreau.
En effet, alors que le monde entier attendait GPT-4, la prochaine version de GPT-3, OpenAI a publié en décembre dernier GPT-3.5 sous la forme d'un nouveau chatbot d'IA, appelé ChatGPT, qui a vu plus d'un million d'utilisateurs moins d'une semaine après son lancement. ChatGPT est une version affinée de GPT-3.5, une mise à jour que la société n'avait pas encore annoncée. Le chatbot a montré ses capacités à générer du texte dans un format de dialogue, ce qui, selon la société, lui permet de répondre à des questions de suivi, d'admettre ses erreurs, de contester des prémisses incorrectes et de rejeter des demandes inappropriées.
Les modèles GPT-3.5 et ChatGPT affichent des performances impressionnantes dans divers scénarios de traitement du langage naturel, dépassant souvent les modèles de langage explicitement formés pour des domaines spécifiques. Les données d'entraînement des modèles GPT ne sont pas complètement connues, mais les modèles ont probablement vu des textes juridiques provenant de sources publiques. Cependant, étant donné la nature complexe du langage juridique et l'aspect généraliste de GPT-3.5, la question de savoir si GPT-3.5 ou des modèles comparables pourraient réussir dans les évaluations de tâches juridiques reste ouverte.
Ainsi, l'équipe a décidé de tester le modèle de langage GPT-3.5 d'OpenAI sur la section à choix multiple de l'examen du barreau, connue sous le nom de Multistate Bar Examination (MBE). Pour ces tests, les chercheurs n'utilisent que des invites de type "zero-shot". Dans la littérature sur l'ingénierie des invites, le terme "zéro-shot" fait souvent référence à un contexte où des données étiquetées zéro sont utilisées pour l'entraînement ou l'inférence de modèles de langage. Dans un sens plus large, "zero-shot" fait référence à "l'apprentissage d'un modèle de langage pour faire quelque chose qu'il n'a pas été explicitement formé à faire".
Le MBE fait partie de l'examen complet, comprend environ 200 questions et est conçu pour tester les connaissances juridiques et la compréhension de la lecture. Selon les chercheurs, les scénarios fictifs exigent une maîtrise sémantique et syntaxique de la langue anglaise supérieure à la moyenne. Le graphique et le tableau ci-dessus montrent clairement que GPT ne réussit pas encore l'examen général à choix multiple. Selon les chercheurs, GPT-3.5 a été capable de donner des réponses correctes aux questions avec une variété d'invites, mais la plus réussie était une invite qui demandait au modèle de classer les trois meilleures réponses.
GPT dépasse largement le "taux de chance de base" de 25 %. De plus, GPT a atteint le taux de réussite moyen pour au moins deux catégories, Preuves et Délits. En moyenne, toutes catégories confondues, GPT a un taux de réussite inférieur d'environ 17 % à celui des candidats humains. Dans le cas de la preuve, des délits civils et de la procédure civile, cet écart est négligeable ou à un chiffre. Cependant, les chercheurs affirment que, pour les autres catégories de droit constitutionnel, de biens immobiliers, de contrats et de droit pénal, l'écart est beaucoup plus important, allant jusqu'à 36 % dans le cas du droit pénal.
Pour le test, l'équipe a utilisé le matériel de préparation de la National Conference of Bar Examiners (NCBE), l'organisation qui crée la majeure partie des examens du barreau. Sur le graphique ci-dessus, la zone bleue indique la moyenne des étudiants du NCBE, et la zone rouge indique le meilleur choix généré par GPT. Comme vous pouvez le voir, pour les preuves (Evidence) en particulier, la machine est prête à battre l'homme. Les auteurs, qui sont des experts en droit, se sont dits extrêmement surpris par les résultats. Ils s'attendent à ce que GPT-4 soit capable de réussir le MBE lorsque le nouveau modèle sera publié par OpenAI.
Les auteurs de l'étude affirment que GPT-3.5 dépasse largement les performances attendues : « malgré les milliers d'heures passées sur des tâches connexes au cours des deux dernières décennies entre les auteurs, nous ne nous attendions pas à ce que GPT-3.5 fasse preuve d'une telle compétence face à des invites de type "zero-shot" avec un effort minimal de modélisation et d'optimisation ». Selon les chercheurs, l'histoire du développement de grands modèles de langage (Large Language Models - LLM) suggère fortement que de tels modèles pourraient bientôt réussir toutes les catégories de la partie MBE de l'examen du barreau.
Sur la base de preuves anecdotiques liées à GPT-4 et à la famille de modèles Bloom de la société LAION, les chercheurs pensent que cela pourrait se produire dans les 18 prochains mois. « Bien que notre capacité à interpréter comment ou pourquoi GPT-3.5 choisit entre les réponses candidates soit limitée par la compréhension des LLM et la nature propriétaire de GPT, l'historique des problèmes similaires suggère fortement qu'un LLM pourrait bientôt passer la barre. Il est tout à fait possible que cela se produise dans les 0 à 18 prochains mois », ont écrit les chercheurs dans le rapport de l'étude.
Leur étude relance le débat sur le remplacement des avocats humains par des systèmes d'IA. La Chine s'emploie depuis plusieurs années à mettre en place un système de « tribunaux intelligents » en intégrant l'IA dans son système judiciaire. Le nouveau système exige que les juges consultent l'IA sur chaque cas, et s'ils rejettent une recommandation de l'IA, ils doivent fournir une explication écrite. Un étude publiée en juillet 2022 indique qu'en remplaçant les avocats humains par l'IA, le système judiciaire chinois a économisé 45 milliards de dollars en frais entre 2019 et 2021, soit la moitié du total des honoraires des avocats en Chine en 2021.
Face à cela, Zhang Linghan, professeur de droit chinois, met en garde : « nous devons être attentifs à l'érosion du pouvoir judiciaire par les entreprises technologiques. Cela pourrait améliorer l'efficacité et l'équité dans une certaine mesure, mais les humains perdront progressivement leur libre arbitre avec une dépendance croissante à la technologie ». Dans certains pays, y compris en France, des cabinets d'avocats font appel à des entreprises qui vantent des technologies juridiques capables d'analyser des millions de décisions de justice à la seconde, ce qui permet par exemple d'évaluer la probabilité de succès d'une action contentieuse.
Certaines des entreprises technologiques qui proposent ces systèmes construisent également des modèles de comportement des juges sur certaines questions ou face à différents arguments juridiques. Avec de telles informations, les cabinets d'avocats peuvent optimiser leurs stratégies devant les tribunaux. Cependant, en juin 2019, la France a décidé de bannir les IA de prédiction des comportements des juges. Selon certains experts, les technologies de justice prédictive représentent une menace pour la société. Ils mettent en avant les biais que peuvent comporter ces systèmes d'IA, notamment sur le plan racial, sexuel et social.
Sources : Des chercheurs du Chicago Kent College of Law, de la Bucerius Law School Hamburg et du Stanford Center for Legal Informatics (CodeX), Rapport de l'étude (PDF), Données complémentaires à l'étude
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des résultats obtenus par GPT-3.5 à l'examen du barreau ?
:fleche: Pensez-vous également que GPT-4 pourrait bientôt réussir l'examen du barreau ? Pourquoi ?
:fleche: Quels impacts ces modèles de langage pourraient-ils avoir sur le système judiciaire ?
:fleche: À votre avis, les systèmes d'IA pourraient-ils remplacer les avocats et les juges dans les tribunaux ?
Voir aussi
:fleche: En remplaçant les avocats humains par l'IA, le système judiciaire chinois aurait économisé 45 Mds $ en frais entre 2019 et 2021, soit la moitié du total des honoraires des avocats en Chine en 2021
:fleche: La France bannit les IA de prédiction des comportements des juges, les technologies de justice prédictive sont-elles une menace pour la société ?
:fleche: Une intelligence artificielle peut-elle être un juge équitable dans un tribunal ? L'Estonie pense que oui
:fleche: Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques
2 pièce(s) jointe(s)
Pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant propose une app
Pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant propose une application d'analyse de texte
qui détecte s'il a été rédigé par une IA
Un professeur de l'université de Caroline du Sud a tiré la sonnette d'alarme après avoir découvert que l'un de ses étudiants a utilisé ChatGPT, le nouveau chatbot d'IA du laboratoire OpenAI, pour rédiger sa dissertation. Pour le professeur, cette IA, vielle de quelques semaines à peine et facilement accessible au public, porte un nouveau coup à l'enseignement supérieur, déjà en proie à une tricherie endémique.
Les propositions de solutions se multiplient pour endiguer le problème. Parmi elles, celle d'un étudiant de Princeton : une application qui vise à savoir si des essais ont été écrits par des IA comme ChatGPT. L'application analyse le texte pour voir à quel point il est écrit de manière aléatoire, ce qui lui permet de détecter s'il a été écrit par l'IA. Le site Web hébergeant l'application, construit par Edward Tian, a planté en raison d'un trafic élevé.
En lançant ChatGPT début décembre, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.
« C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.
Tout d'abord, il a introduit le texte suspect dans un logiciel conçu par les producteurs de ChatGPT pour déterminer si la réponse écrite avait été formulée par l'IA. Il a obtenu une correspondance probable à 99,9 %. Mais contrairement à un logiciel standard de détection du plagiat - ou à un devoir universitaire bien rédigé - le logiciel ne proposait aucune citation. Hick a ensuite essayé de produire le même essai en posant à ChatGPT une série de questions qu'il imaginait avoir été posées par son étudiant. Le professeur affirme avoir obtenu des réponses similaires, mais aucune correspondance directe, car l'outil formule des réponses uniques.
Finalement, Hick a confronté l'étudiant, qui a avoué avoir utilisé ChatGPT et a échoué au cours en conséquence. L'étudiant a également été remis au doyen de l'école. Mais Hick craint que d'autres cas soient presque impossibles à prouver et que lui et ses collègues soient bientôt inondés de travaux frauduleux. Des universités comme Furman chercheraient à établir des protocoles académiques formels pour cette technologie en développement. Pour l'instant, Hick dit que le mieux qu'il peut faire est de surprendre les étudiants suspects avec des examens oraux impromptus, en espérant les prendre au dépourvu sans leur armure technologique.
Vient alors GPTZero
Une nouvelle application peut détecter si votre essai a été écrit par ChatGPT, car les chercheurs cherchent à lutter contre le plagiat de l'IA. Edward Tian, étudiant en informatique à Princeton, a déclaré avoir passé la période des vacances à développer GPTZero.
Il a partagé deux vidéos comparant l'analyse de l'application d'un article du New Yorker et une lettre écrite par ChatGPT. Il a correctement identifié qu'ils ont été respectivement écrits par un humain et une IA.
GPTZero note le texte sur sa « perplexité et sa rafale [burstiness] » (se référant à sa complexité et à son écriture aléatoire). Dans les statistiques, la rafale [burstiness] est l'augmentation et la diminution intermittentes de l'activité ou de la fréquence d'un événement. L'une des mesures de la rafale est le facteur Fano, un rapport entre la variance et la moyenne des comptages.
L'application était si populaire qu'elle a planté « en raison d'un trafic Web étonnamment élevé » et affiche actuellement une page d'inscription bêta. GPTZero est toujours disponible sur la page Streamlit de Tian, après que les hébergeurs du site Web sont intervenus pour augmenter sa capacité.
Tian, un ancien journaliste de données de la BBC, a déclaré qu'il était motivé pour construire GPTZero après avoir constaté une augmentation des cas de plagiat de l'IA.
« Les enseignants du secondaire voudront-ils que les élèves utilisent ChatGPT pour écrire leurs essais d'histoire ? Probablement pas », a-t-il tweeté.
ChatGPT met en place son propre système de lutte contre le plagiat en facilitant l'identification
Alors que les milieux universitaires craignent de plus en plus ce nouveau chatbot IA capable de rédiger des essais convaincants (même si certains faits qu'il utilise ne sont pas strictement vrais), la société de la Silicon Valley à l'origine du chatbot s'est dépêchée de faire du fingerprinting de sortie pour éviter une vague de plagiat assisté par l'IA.
ChatGPT, un générateur de texte basé sur l'IA qui a été mis à la disposition du public début décembre, a été loué et critiqué pour la qualité de sa sortie. Les utilisateurs peuvent lui poser des questions allant de simples requêtes factuelles (« Quelle est la plus haute montagne de France ? ») à des demandes absurdes (« Écris un limerick [poème humoristique de cinq vers] expliquant la règle du hors-jeu ») et recevoir des réponses claires et cohérentes rédigées en anglais naturel.
Les chefs d'établissement et les professeurs d'université ont exprimé leur inquiétude quant au fait que ChatGPT, qui peut fournir des réponses convaincantes à consonance humaine aux questions d'examen, pourrait déclencher une vague de tricherie dans les devoirs et les cours d'examen.
Aussi, les développeurs du bot, OpenAI, basé à San Francisco, tentent de contrer le risque en « filigranant » la sortie du bot et en rendant le plagiat plus facile à repérer.
Lors d'une conférence à l'Université du Texas, le chercheur invité d'OpenAI, Scott Aaronson, a déclaré que l'entreprise travaillait sur un système pour contrer la triche en « marquant statistiquement les sorties ». La technologie fonctionnerait en modifiant subtilement le choix spécifique des mots sélectionnés par ChatGPT, a déclaré Aaronson, d'une manière qui ne serait pas perceptible pour un lecteur, mais serait statistiquement prévisible pour quiconque recherche des signes de texte généré par une machine.
« Nous voulons qu'il soit beaucoup plus difficile de prendre une sortie GPT et de la faire passer comme si elle provenait d'un humain », a déclaré Aaronson. « Cela pourrait être utile pour prévenir le plagiat universitaire, évidemment, mais aussi, par exemple, la génération massive de propagande - vous savez, spammer chaque blog avec des commentaires apparemment sur le sujet soutenant l'invasion de l'Ukraine par la Russie sans même un bâtiment plein de trolls à Moscou. Ou se faire passer pour quelqu'un en imitant son style d'écriture afin de l'incriminer ».
« Nous avons en fait un prototype fonctionnel du schéma de filigrane », a ajouté Aaronson. « Cela semble fonctionner assez bien - empiriquement, quelques centaines [de mots] semblent être suffisants pour obtenir un signal raisonnable que, oui, ce texte provient de GPT ».
Le bot ne fonctionne pas parfaitement. Il a tendance à « colorer » des évènements qui ne sont pas strictement vrais, ce que l'analyste technologique Benedict Evans a décrit « comme un étudiant de premier cycle répondant avec confiance à une question pour laquelle il n'a assisté à aucune conférence. Cela ressemble à un connerie confiante qui peut écrire des bêtises très convaincantes ».
Mais la technologie a été adoptée avec empressement par exactement ce type d'étudiant, qui doit produire rapidement un essai passable. La sortie de ChatGPT n'a déclenché aucun détecteur de plagiat conventionnel jusqu'à présent, car le texte qu'il produit n'a pas été écrit auparavant, laissant les évaluateurs du mal à trouver comment identifier les tricheurs.
Conclusion
ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses « aptitudes ». Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis. Cette édition de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US porte sur 4 questions. Les postulants sont libres de formuler les réponses de la manière qui leur convient. Un internaute a proposé une compilation des réponses proposées par ChatGPT après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles.
Code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173
| // 1a
public int getScore()
{
int score = 0;
*
// Check if this is a bonus game
if (isBonus()) {
// If it is, triple the final score
score = 3;
}
*
// Iterate through each level
for (int i = 1; i <= 3; i++) {
// Check if the goal for the current level has been reached
if (level[i].goalReached()) {
// If it has, add the points for that level to the score
score += level[i].getPoints();
}
}
*
// Return the final score
return score;
}
*
// 1b
public int playManyTimes(int num)
{
// Keep track of the highest score seen so far
int highestScore = 0;
*
// Iterate for the number of games specified in the num parameter
for (int i = 0; i < num; i++) {
// Create a new game
Game game = new Game();
*
// Simulate the play of the game
game.play();
*
// Compute the score for the game
int score = game.getScore();
*
// If the score for this game is higher than the highest score seen so far,
// update the highest score
if (score > highestScore) {
highestScore = score;
}
}
*
// Return the highest score seen
return highestScore;
}
*
// 2
public class Textbook extends Book {
private int edition;
*
/**
* Creates a new Textbook with given title, price, and edition number.
*
* @param bookTitle the title of the textbook
* @param bookPrice the price of the textbook
* @param bookEdition the edition number of the textbook
*/
public Textbook(String bookTitle, double bookPrice, int bookEdition) {
super(bookTitle, bookPrice);
this.edition = bookEdition;
}
*
/**
* Returns the edition number of the textbook.
*
* @return the edition number of the textbook
*/
public int getEdition() {
return edition;
}
*
/**
* Returns the title, price, and edition number of the Textbook as a string.
*
* @return the title, price, and edition number of the Textbook as a string
*/
@Override
public String getBookInfo() {
return super.getBookInfo() + "-" + edition;
}
*
/**
* Returns true if this Textbook is a valid substitute for the Textbook referenced by the parameter
* of the canSubstituteFor method. Returns false otherwise.
*
* @param other the Textbook to compare to this Textbook
* @return true if this Textbook is a valid substitute for the Textbook referenced by the parameter
* of the canSubstituteFor method, false otherwise
*/
public boolean canSubstituteFor(Textbook other) {
return this.getTitle().equals(other.getTitle()) && this.getEdition() >= other.getEdition();
}
}
*
// 3a
*
public double getAverageRating()
{
double totalRating = 0;
int numReviews = allReviews.length;
*
for (Review review : allReviews)
{
totalRating += review.getRating();
}
*
return totalRating / numReviews;
}
*
// 3b
*
public ArrayList<String> collectComments()
{
ArrayList<String> formattedComments = new ArrayList<>();
*
for (int i = 0; i < allReviews.length; i++)
{
String comment = allReviews[i].getComment();
if (comment.contains("!"))
{
formattedComments.add(i + "-" + comment);
*
if (!(comment.endsWith(".") || comment.endsWith("!")))
{
formattedComments.set(formattedComments.size() - 1, formattedComments.get(formattedComments.size() - 1) + ".");
}
}
}
*
return formattedComments;
}
*
// 4a
*
public void repopulate()
{
Random rand = new Random();
for (int i = 0; i < grid.length; i++) {
for (int j = 0; j < grid[i].length; j++) {
int val = rand.nextInt(MAX - 1) + 1;
while (val % 10 != 0 || val % 100 == 0) {
val = rand.nextInt(MAX - 1) + 1;
}
grid[i][j] = val;
}
}
}
*
// 4b
*
public int countIncreasingCols()
{
int count = 0;
for (int i = 0; i < grid[0].length; i++) {
boolean isIncreasing = true;
for (int j = 1; j < grid.length; j++) {
if (grid[j][i] < grid[j - 1][i]) {
isIncreasing = false;
break;
}
}
if (isIncreasing) {
count++;
}
}
return count;
} |
Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.
Par ailleurs, ce n'est pas la première fois qu'un modèle d'IA d'OpenAI est utilisé pour tenter de tromper la vigilance des gens, parfois même des personnes les plus avisées. En août 2020, un faux billet de blogue généré par GPT-3, une autre IA de traitement du langage naturel (NLP) d'OpenAI, a trompé des dizaines de milliers de personnes, car il était étonnamment bien écrit pour automate. Le billet de blogue, publié par Liam Porr, étudiant à l’université de Californie à Berkeley, s'est même hissé parmi les sujets les mieux classés sur le site communautaire Hacker News. Porr a déclaré qu'il voulait prouver que GPT-3 pouvait tromper les gens.
:fleche: GPTZero
:fleche: page Streamlit d'Edward Tian
Sources : Edward Tian (1, 2), Scott Aaronson
Et vous ?
:fleche: Que pensez-vous de ChatGPT de façon générale ?
:fleche: Un tel outil devrait-il être autorisé au public de la sorte ou soumis à des restrictions comme DALL-E 2 ? Dans quelle mesure ?
:fleche: Comprenez-vous la réaction de Google qui, se sentant en danger, voudrait développer un produit concurrent ?
3 pièce(s) jointe(s)
La ville de New York interdit aux étudiants et aux enseignants d’utiliser ChatGPT
La ville de New York interdit aux étudiants et aux enseignants d’utiliser ChatGPT
L’intelligence artificielle qui menace les postes des développeurs informatique et inquiète la communauté éducative
Ce qu’on sait de cette intelligence artificielle de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains la qualifient même de remplaçant de Google. D’ailleurs, Microsoft et OpenAI seraient lancés sur une version du moteur de recherche Bing qui l’intègre. ChatGPT serait d’une « intelligence » telle qu’elle terrorise les enseignants de la filière informatique qui redoutent une aggravation de la tricherie dans l’enseignement supérieur. La ville de New York cite désormais des raisons similaires pour décider de son bannissement : interdiction aux étudiants et enseignants d’en faire usage. La décision n’est pas sans susciter de controverse.
« En raison de préoccupations concernant les effets négatifs sur l'apprentissage des élèves, ainsi que la sécurité et l'exactitude du contenu, l'accès à ChatGPT est prohibé sur les réseaux et les appareils des écoles publiques de la ville de New York », déclare un porte-parole du Département de l’éducation de la ville.
La controverse au sujet de cette décision tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.
La contradiction en lien avec la décision de la ville de New York est même susceptible d’enfler si on prend en compte que de tels outils peuvent amener les intervenants de tous bords de la communauté informatique à aiguiser leur créativité. En effet, pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant a proposé une application d'analyse de texte qui détecte s’il a été rédigé par une intelligence artificielle.
Amjad Masad, fondateur de startup de génie logiciel, rapporte qu’il a demandé à ChatGPT de repérer les erreurs dans son code et de produire un rapport détaillé sur les ratés et sur la manière de le corriger. Ce dernier est arrivé à la conclusion que ChatGPT peut faire office de bon compagnon de débogage qui « ne se contente pas d’expliquer le bogue, mais le corrige et explique la correction. » En cela, ChatGPT est susceptible de contribuer à une amélioration de la productivité des intervenants de la filière de tous bords (élèves, enseignants, ingénieurs, etc.)
Le plus grand débat tourne autour de la possibilité de voir les intelligences artificielles rendues au stade où elles sont dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.
L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu.
Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.
Source : Département de l’éducation de New York
Et vous ?
:fleche: Quel commentaire faites-vous de cette décision du Département de l’éducation de New York ? Est-ce un exemple à suivre ?
:fleche: Quels sont selon vous les avantages et les inconvénients d’outils comme ChatGPT rendus au stade actuel de leur évolution pour les différents intervenants de la filière informatique (étudiants, enseignants, ingénieurs, etc.)
Voir aussi :
:fleche: Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau, et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA
:fleche: Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine
:fleche: Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %
:fleche: Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
1 pièce(s) jointe(s)
OpenAI en pourparlers dans le cadre d’une offre publique d’achat qui pourrait doubler sa valorisation
La startup OpenAI en pourparlers pour vendre des actions dans le cadre d’une offre publique d’achat
Susceptible de faire passer sa valorisation à 29 milliards de dollars
OpenAI, le laboratoire de recherche à l'origine de ChatGPT, est en pourparlers pour vendre des actions existantes dans le cadre d'une offre publique d'achat qui susceptible de faire passer la valorisation de la société à environ 29 milliards de dollars, selon des tiers au courant des développements en interne. L’opération en ferait l'une des startups américaines les plus précieuses sur le papier, bien qu'elle génère peu de revenus.
Les sociétés de capital-risque Thrive Capital et Founders Fund sont en pourparlers pour investir dans l'opération, qui totaliserait au moins 300 millions de dollars en ventes d'actions. L'opération est structurée comme une offre publique d'achat, les investisseurs achetant des actions aux actionnaires existants tels que les employés.
La nouvelle opération est censée doubler l'évaluation d'OpenAI par rapport à une précédente offre publique d'achat réalisée en 2021, lorsqu'OpenAI était évaluée à environ 14 milliards de dollars. OpenAI a généré des dizaines de millions de dollars de revenus, en partie en vendant son intelligence artificielle aux développeurs, mais certains investisseurs ont exprimé leur scepticisme quant à la capacité de l'entreprise à générer des revenus significatifs à partir de sa technologie. Aucun accord définitif n'a été conclu et les conditions pourraient changer selon les retours des tiers au courant des tractations.
L'année dernière, OpenAI a lancé une série de produits basés sur l'intelligence artificielle qui ont attiré l'attention du public, notamment le programme de génération d'images Dall-E 2 et le chatbot ChatGPT. Si l'offre est acceptée à cette valeur, OpenAI sera l'une des rares startups capables de lever des fonds à des valeurs plus élevées sur le marché privé, où les investisseurs se sont retirés des nouvelles opérations en raison de la déroute technologique de l'année dernière.
En 2019, Microsoft a investi un milliard de dollars dans OpenAI et est devenu son partenaire privilégié pour la commercialisation de nouvelles technologies pour des services tels que le moteur de recherche Bing et l'application de conception Microsoft Design. Le géant technologique serait à pied d’œuvre pour augmenter son investissement dans OpenAI. D’ailleurs, les deux entreprises travailleraient sur une version du moteur de recherche Bing qui intègre l’intelligence artificielle ChatGPT.
Ce qu’on sait de cette intelligence artificielle de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains la qualifient même de remplaçant de Google. Le géant du moteur de recherches a d’ailleurs lancé une alerte rouge à ses équipes pour le développement d’un concurrent à ChatGPT.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau, et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA
:fleche: Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine
:fleche: Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %
:fleche: Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
2 pièce(s) jointe(s)
L'une des conférences les plus prestigieuses au monde sur l'IA bannit l'utilisation de chatGPT
L'une des conférences les plus prestigieuses au monde sur l'IA bannit l'utilisation de chatGPT et tous les outils de langages IA,
dans la rédaction d'articles universitaires
L'une des conférences sur l'apprentissage automatique les plus prestigieuses au monde a interdit aux auteurs d'utiliser des outils d'IA comme ChatGPT pour rédiger des articles scientifiques, déclenchant un débat sur le rôle du texte généré par l'IA dans le milieu universitaire. Pour mémoire, l'apprentissage automatique (ou machine learning) est un champ d'étude de l'intelligence artificielle qui vise à donner aux machines la capacité « d'apprendre » à partir de données, via des modèles mathématiques. Une ironie de ne pas utiliser un outil qui s'appuie sur l'apprentissage automatique pour démontrer son évolution en rédigeant des articles universitaires dans cette discipline ?
En lançant ChatGPT début décembre, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.
« C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.
Mais ChatGPT n'est pas uniquement capable de rédiger des essais convaincants.
ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses « aptitudes ». Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis, édition qui porte sur 4 questions. Les postulants sont libres de formuler les réponses de la manière qui leur convient. Un internaute a proposé une compilation des réponses proposées par ChatGPT après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles.
Code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173
| // 1a
public int getScore()
{
int score = 0;
*
// Check if this is a bonus game
if (isBonus()) {
// If it is, triple the final score
score = 3;
}
*
// Iterate through each level
for (int i = 1; i <= 3; i++) {
// Check if the goal for the current level has been reached
if (level[i].goalReached()) {
// If it has, add the points for that level to the score
score += level[i].getPoints();
}
}
*
// Return the final score
return score;
}
*
// 1b
public int playManyTimes(int num)
{
// Keep track of the highest score seen so far
int highestScore = 0;
*
// Iterate for the number of games specified in the num parameter
for (int i = 0; i < num; i++) {
// Create a new game
Game game = new Game();
*
// Simulate the play of the game
game.play();
*
// Compute the score for the game
int score = game.getScore();
*
// If the score for this game is higher than the highest score seen so far,
// update the highest score
if (score > highestScore) {
highestScore = score;
}
}
*
// Return the highest score seen
return highestScore;
}
*
// 2
public class Textbook extends Book {
private int edition;
*
/**
* Creates a new Textbook with given title, price, and edition number.
*
* @param bookTitle the title of the textbook
* @param bookPrice the price of the textbook
* @param bookEdition the edition number of the textbook
*/
public Textbook(String bookTitle, double bookPrice, int bookEdition) {
super(bookTitle, bookPrice);
this.edition = bookEdition;
}
*
/**
* Returns the edition number of the textbook.
*
* @return the edition number of the textbook
*/
public int getEdition() {
return edition;
}
*
/**
* Returns the title, price, and edition number of the Textbook as a string.
*
* @return the title, price, and edition number of the Textbook as a string
*/
@Override
public String getBookInfo() {
return super.getBookInfo() + "-" + edition;
}
*
/**
* Returns true if this Textbook is a valid substitute for the Textbook referenced by the parameter
* of the canSubstituteFor method. Returns false otherwise.
*
* @param other the Textbook to compare to this Textbook
* @return true if this Textbook is a valid substitute for the Textbook referenced by the parameter
* of the canSubstituteFor method, false otherwise
*/
public boolean canSubstituteFor(Textbook other) {
return this.getTitle().equals(other.getTitle()) && this.getEdition() >= other.getEdition();
}
}
*
// 3a
*
public double getAverageRating()
{
double totalRating = 0;
int numReviews = allReviews.length;
*
for (Review review : allReviews)
{
totalRating += review.getRating();
}
*
return totalRating / numReviews;
}
*
// 3b
*
public ArrayList<String> collectComments()
{
ArrayList<String> formattedComments = new ArrayList<>();
*
for (int i = 0; i < allReviews.length; i++)
{
String comment = allReviews[i].getComment();
if (comment.contains("!"))
{
formattedComments.add(i + "-" + comment);
*
if (!(comment.endsWith(".") || comment.endsWith("!")))
{
formattedComments.set(formattedComments.size() - 1, formattedComments.get(formattedComments.size() - 1) + ".");
}
}
}
*
return formattedComments;
}
*
// 4a
*
public void repopulate()
{
Random rand = new Random();
for (int i = 0; i < grid.length; i++) {
for (int j = 0; j < grid[i].length; j++) {
int val = rand.nextInt(MAX - 1) + 1;
while (val % 10 != 0 || val % 100 == 0) {
val = rand.nextInt(MAX - 1) + 1;
}
grid[i][j] = val;
}
}
}
*
// 4b
*
public int countIncreasingCols()
{
int count = 0;
for (int i = 0; i < grid[0].length; i++) {
boolean isIncreasing = true;
for (int j = 1; j < grid.length; j++) {
if (grid[j][i] < grid[j - 1][i]) {
isIncreasing = false;
break;
}
}
if (isIncreasing) {
count++;
}
}
return count;
} |
Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.
D'ailleurs, en parlant de développement, un utilisateur indique que : « ChatGP pourrait être un bon compagnon de débogage*; il explique non seulement le bogue mais le corrige et explique le correctif » :
ChatGPT, ou un outil similaire, ne doit pas être utilisé pour rédiger des articles universitaires
C'est ce qu'a décidé l'International Conference on Machine Learning (ICML).
Annonçant sa politique plus tôt cette semaine, elle a déclaré : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article ». La nouvelle a suscité de nombreuses discussions sur les réseaux sociaux, des universitaires et des chercheurs en IA défendant et critiquant la politique. Les organisateurs de la conférence ont répondu en publiant une déclaration plus longue expliquant leur pensée.
Selon l'ICML, la montée en puissance de modèles de langage d'IA accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».
Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.
« Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.
En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.
Cependant, les questions auxquelles l'ICML s'attaque peuvent ne pas être facilement résolues
La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. Par exemple, le ministère de l'Éducation de la ville de New York a bloqué l'accès à l'outil pour toute personne sur son réseau cette semaine.
En fait, à chaque fois qu'une organisation a bloqué l'utilisation de cet outil, il existait différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de « faits » sur lesquels s'appuyer (juste la capacité d'écrire des déclarations plausibles). Cela signifie qu'ils ont tendance à présenter de fausses informations comme des vérités, car le fait qu'une phrase donnée semble plausible ne garantit pas sa factualité.
Dans le cas de l'interdiction par ICML des textes générés par l'IA, un autre défi potentiel consiste à faire la distinction entre l'écriture qui n'a été que « polie » ou « éditée » par l'IA et celle qui a été « entièrement produite" par ces outils ». À quel moment un certain nombre de petites corrections guidées par l'IA constituent-elles une réécriture plus importante ? Que se passe-t-il si un utilisateur demande à un outil d'IA de résumer son article dans un résumé accrocheur ? Est-ce que cela compte comme du texte fraîchement généré (parce que le texte est nouveau) ou un simple polissage (parce que c'est un résumé des mots que l'auteur a écrits) ?
Avant que l'ICML ne clarifie les attributions de sa politique, de nombreux chercheurs craignaient qu'une éventuelle interdiction des textes générés par l'IA ne soit également préjudiciable à ceux qui ne parlent ni n'écrivent l'anglais comme langue maternelle. Le professeur Yoav Goldberg de l'Université Bar-Ilan en Israël a déclaré qu'une interdiction générale de l'utilisation des outils d'écriture de l'IA serait un acte de contrôle contre ces communautés.
« Il existe un biais inconscient clair lors de l'évaluation des articles dans l'examen par les pairs pour préférer les plus fluides, et cela joue en faveur des locuteurs natifs », explique Goldberg. « En utilisant des outils comme ChatGPT pour aider à exprimer leurs idées, il semble que de nombreux locuteurs non natifs pensent qu'ils peuvent "uniformiser les règles du jeu" sur ces questions ». a estimé Goldberg. Ce dernier est persuadé que « de tels outils peuvent aider les chercheurs à gagner du temps, ainsi qu'à mieux communiquer avec leurs pairs ».
Mais les outils d'écriture d'IA sont également qualitativement différents des logiciels plus simples comme Grammarly. Deb Raji, chercheuse en intelligence artificielle à la Fondation Mozilla, a déclaré qu'il était logique que l'ICML introduise une politique spécifiquement destinée à ces systèmes. Comme Goldberg, elle a déclaré avoir entendu des anglophones non natifs dire que de tels outils peuvent être « incroyablement utiles » pour la rédaction d'articles, et a ajouté que les modèles linguistiques ont le potentiel d'apporter des modifications plus radicales au texte.
« Je vois les LLM comme tout à fait distincts de quelque chose comme la correction automatique ou la grammaire, qui sont des outils correctifs et éducatifs », a déclaré Raji. « Bien qu'ils puissent être utilisés à cette fin, les LLM ne sont pas explicitement conçus pour ajuster la structure et la langue du texte déjà écrit - ils ont également d'autres capacités plus problématiques, telles que la génération de nouveaux textes et de spam ».
Goldberg a déclaré que même s'il pensait qu'il était certainement possible pour les universitaires de générer des articles entièrement à l'aide de l'IA, « ils sont très peu incités à le faire ». « En fin de compte, les auteurs signent sur le papier et ont une réputation à tenir », a-t-il déclaré. « Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ».
Ce point est particulièrement important étant donné qu'il n'existe aucun moyen totalement fiable de détecter le texte généré par l'IA. Même l'ICML note qu'une détection infaillible est « difficile » et que la conférence n'appliquera pas son interdiction de manière proactive en exécutant les soumissions via un logiciel de détection. Au lieu de cela, elle n'enquêtera que sur les soumissions qui ont été signalées par d'autres universitaires comme suspectes.
En d'autres termes : en réponse à l'essor des technologies perturbatrices et nouvelles, les organisateurs s'appuient sur des mécanismes sociaux traditionnels pour faire respecter les normes académiques. L'IA peut être utilisée pour peaufiner, éditer ou écrire du texte, mais il appartiendra toujours aux humains d'évaluer sa valeur.
Source : ICML
Et vous ?
:fleche: Que pensez-vous de la décision de l'ICML de bannir l'utilisation de chatGPT ?
:fleche: Que pensez-vous des propos des experts dans le domaine de l'IA qui voient en de tels outils une opportunité pour leurs pairs qui ne sont pas anglophones natifs de mieux présenter leurs idées ?
:fleche: « [Les universitaires] sont très peu incités à le faire [se servir d'un outil comme chatGPT pour générer entièrement leurs articles par IA]. Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ». Partagez-vous ce point de vue ?
:fleche: D'une manière plus générale, que pensez-vous des outils comme chatGPT ? En avez-vous déjà essayé un ?
:fleche: Si oui, lequel et qu'en avez-vous pensé ? Si non, aimeriez-vous en essayer un ?