IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Les articles scientifiques frauduleux sont en forte augmentation

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éclairé

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    Juin 2002
    Messages
    619
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2002
    Messages : 619
    Par défaut
    Pour un truc qui à la base était une association à but non lucratif, on semble s'en éloigner de plus en plus.
    C'est vraiment dommage, même si cela est peut-être nécessaire pour faire vivre le projet.

  2. #2
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 859
    Par défaut
    mais certains investisseurs ont exprimé leur scepticisme quant à la capacité de l'entreprise à générer des revenus significatifs à partir de sa technologie.
    Open AI, société à but lucratif limité, vise des revenus de 200 millions en 2023 et un milliard en 2024. Cela la rend appétissante pour les GAFAM car ce n'est que le début et le fait d'être valorisée 29 milliards donne une absorption plus difficile.

  3. #3
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    611
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 611
    Par défaut
    Citation Envoyé par vanquish Voir le message
    Pour un truc qui à la base était une association à but non lucratif, on semble s'en éloigner de plus en plus.
    C'est vraiment dommage, même si cela est peut-être nécessaire pour faire vivre le projet.
    Ouais puis j'ai l'impression que c'est surtout du vent.
    Quel projets ont-il open sourcé malgré leur nom?
    Leurs produits phares sont toujours fermés, et c'est d'autres entreprises qui proposent une alternative open source à GPT ou Dall-e... et on au moins la décence de donner un vrai accès au public de leurs IA nourries en masse avec des données qui leur appartiennent pas.

  4. #4
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Alors comme ça, ChatGPT est capable de rédiger une dissertation proprement, et Microsoft n'est toujours pas capable d'écrire une doc en plaçant les mots dans un ordre intelligible ?

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut L'une des conférences les plus prestigieuses au monde sur l'IA bannit l'utilisation de chatGPT
    L'une des conférences les plus prestigieuses au monde sur l'IA bannit l'utilisation de chatGPT et tous les outils de langages IA,
    dans la rédaction d'articles universitaires

    L'une des conférences sur l'apprentissage automatique les plus prestigieuses au monde a interdit aux auteurs d'utiliser des outils d'IA comme ChatGPT pour rédiger des articles scientifiques, déclenchant un débat sur le rôle du texte généré par l'IA dans le milieu universitaire. Pour mémoire, l'apprentissage automatique (ou machine learning) est un champ d'étude de l'intelligence artificielle qui vise à donner aux machines la capacité « d'apprendre » à partir de données, via des modèles mathématiques. Une ironie de ne pas utiliser un outil qui s'appuie sur l'apprentissage automatique pour démontrer son évolution en rédigeant des articles universitaires dans cette discipline ?

    En lançant ChatGPT début décembre, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

    « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    « C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.

    Mais ChatGPT n'est pas uniquement capable de rédiger des essais convaincants.

    ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses « aptitudes ». Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis, édition qui porte sur 4 questions. Les postulants sont libres de formuler les réponses de la manière qui leur convient. Un internaute a proposé une compilation des réponses proposées par ChatGPT après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles.

    Code Java : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    117
    118
    119
    120
    121
    122
    123
    124
    125
    126
    127
    128
    129
    130
    131
    132
    133
    134
    135
    136
    137
    138
    139
    140
    141
    142
    143
    144
    145
    146
    147
    148
    149
    150
    151
    152
    153
    154
    155
    156
    157
    158
    159
    160
    161
    162
    163
    164
    165
    166
    167
    168
    169
    170
    171
    172
    173
    // 1a
    public int getScore()
    {
    int score = 0;
    *
    // Check if this is a bonus game
    if (isBonus()) {
    // If it is, triple the final score
    score = 3;
    }
    *
    // Iterate through each level
    for (int i = 1; i <= 3; i++) {
    // Check if the goal for the current level has been reached
    if (level[i].goalReached()) {
    // If it has, add the points for that level to the score
    score += level[i].getPoints();
    }
    }
    *
    // Return the final score
    return score;
    }
    *
    // 1b
    public int playManyTimes(int num)
    {
    // Keep track of the highest score seen so far
    int highestScore = 0;
    *
    // Iterate for the number of games specified in the num parameter
    for (int i = 0; i < num; i++) {
    // Create a new game
    Game game = new Game();
    *
    // Simulate the play of the game
    game.play();
    *
    // Compute the score for the game
    int score = game.getScore();
    *
    // If the score for this game is higher than the highest score seen so far,
    // update the highest score
    if (score > highestScore) {
    highestScore = score;
    }
    }
    *
    // Return the highest score seen
    return highestScore;
    }
    *
    // 2
    public class Textbook extends Book {
    private int edition;
    *
    /**
    * Creates a new Textbook with given title, price, and edition number.
    *
    * @param bookTitle the title of the textbook
    * @param bookPrice the price of the textbook
    * @param bookEdition the edition number of the textbook
    */
    public Textbook(String bookTitle, double bookPrice, int bookEdition) {
    super(bookTitle, bookPrice);
    this.edition = bookEdition;
    }
    *
    /**
    * Returns the edition number of the textbook.
    *
    * @return the edition number of the textbook
    */
    public int getEdition() {
    return edition;
    }
    *
    /**
    * Returns the title, price, and edition number of the Textbook as a string.
    *
    * @return the title, price, and edition number of the Textbook as a string
    */
    @Override
    public String getBookInfo() {
    return super.getBookInfo() + "-" + edition;
    }
    *
    /**
    * Returns true if this Textbook is a valid substitute for the Textbook referenced by the parameter
    * of the canSubstituteFor method. Returns false otherwise.
    *
    * @param other the Textbook to compare to this Textbook
    * @return true if this Textbook is a valid substitute for the Textbook referenced by the parameter
    * of the canSubstituteFor method, false otherwise
    */
    public boolean canSubstituteFor(Textbook other) {
    return this.getTitle().equals(other.getTitle()) && this.getEdition() >= other.getEdition();
    }
    }
    *
    // 3a
    *
    public double getAverageRating()
    {
    double totalRating = 0;
    int numReviews = allReviews.length;
    *
    for (Review review : allReviews)
    {
    totalRating += review.getRating();
    }
    *
    return totalRating / numReviews;
    }
    *
    // 3b
    *
    public ArrayList<String> collectComments()
    {
    ArrayList<String> formattedComments = new ArrayList<>();
    *
    for (int i = 0; i < allReviews.length; i++)
    {
    String comment = allReviews[i].getComment();
    if (comment.contains("!"))
    {
    formattedComments.add(i + "-" + comment);
    *
    if (!(comment.endsWith(".") || comment.endsWith("!")))
    {
    formattedComments.set(formattedComments.size() - 1, formattedComments.get(formattedComments.size() - 1) + ".");
    }
    }
    }
    *
    return formattedComments;
    }
    *
    // 4a
    *
    public void repopulate()
    {
    Random rand = new Random();
    for (int i = 0; i < grid.length; i++) {
    for (int j = 0; j < grid[i].length; j++) {
    int val = rand.nextInt(MAX - 1) + 1;
    while (val % 10 != 0 || val % 100 == 0) {
    val = rand.nextInt(MAX - 1) + 1;
    }
    grid[i][j] = val;
    }
    }
    }
    *
    // 4b
    *
    public int countIncreasingCols()
    {
    int count = 0;
    for (int i = 0; i < grid[0].length; i++) {
    boolean isIncreasing = true;
    for (int j = 1; j < grid.length; j++) {
    if (grid[j][i] < grid[j - 1][i]) {
    isIncreasing = false;
    break;
    }
    }
    if (isIncreasing) {
    count++;
    }
    }
    return count;
    }

    Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.

    D'ailleurs, en parlant de développement, un utilisateur indique que : « ChatGP pourrait être un bon compagnon de débogage*; il explique non seulement le bogue mais le corrige et explique le correctif » :

    Nom : correction.png
Affichages : 45421
Taille : 239,6 Ko

    ChatGPT, ou un outil similaire, ne doit pas être utilisé pour rédiger des articles universitaires

    C'est ce qu'a décidé l'International Conference on Machine Learning (ICML).

    Annonçant sa politique plus tôt cette semaine, elle a déclaré : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article ». La nouvelle a suscité de nombreuses discussions sur les réseaux sociaux, des universitaires et des chercheurs en IA défendant et critiquant la politique. Les organisateurs de la conférence ont répondu en publiant une déclaration plus longue expliquant leur pensée.

    Nom : sebastien.png
Affichages : 10798
Taille : 36,8 Ko

    Selon l'ICML, la montée en puissance de modèles de langage d'IA accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».

    Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.

    « Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.

    En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.

    Cependant, les questions auxquelles l'ICML s'attaque peuvent ne pas être facilement résolues

    La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. Par exemple, le ministère de l'Éducation de la ville de New York a bloqué l'accès à l'outil pour toute personne sur son réseau cette semaine.

    En fait, à chaque fois qu'une organisation a bloqué l'utilisation de cet outil, il existait différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de « faits » sur lesquels s'appuyer (juste la capacité d'écrire des déclarations plausibles). Cela signifie qu'ils ont tendance à présenter de fausses informations comme des vérités, car le fait qu'une phrase donnée semble plausible ne garantit pas sa factualité.

    Dans le cas de l'interdiction par ICML des textes générés par l'IA, un autre défi potentiel consiste à faire la distinction entre l'écriture qui n'a été que « polie » ou « éditée » par l'IA et celle qui a été « entièrement produite" par ces outils ». À quel moment un certain nombre de petites corrections guidées par l'IA constituent-elles une réécriture plus importante ? Que se passe-t-il si un utilisateur demande à un outil d'IA de résumer son article dans un résumé accrocheur ? Est-ce que cela compte comme du texte fraîchement généré (parce que le texte est nouveau) ou un simple polissage (parce que c'est un résumé des mots que l'auteur a écrits) ?

    Avant que l'ICML ne clarifie les attributions de sa politique, de nombreux chercheurs craignaient qu'une éventuelle interdiction des textes générés par l'IA ne soit également préjudiciable à ceux qui ne parlent ni n'écrivent l'anglais comme langue maternelle. Le professeur Yoav Goldberg de l'Université Bar-Ilan en Israël a déclaré qu'une interdiction générale de l'utilisation des outils d'écriture de l'IA serait un acte de contrôle contre ces communautés.

    « Il existe un biais inconscient clair lors de l'évaluation des articles dans l'examen par les pairs pour préférer les plus fluides, et cela joue en faveur des locuteurs natifs », explique Goldberg. « En utilisant des outils comme ChatGPT pour aider à exprimer leurs idées, il semble que de nombreux locuteurs non natifs pensent qu'ils peuvent "uniformiser les règles du jeu" sur ces questions ». a estimé Goldberg. Ce dernier est persuadé que « de tels outils peuvent aider les chercheurs à gagner du temps, ainsi qu'à mieux communiquer avec leurs pairs ».

    Mais les outils d'écriture d'IA sont également qualitativement différents des logiciels plus simples comme Grammarly. Deb Raji, chercheuse en intelligence artificielle à la Fondation Mozilla, a déclaré qu'il était logique que l'ICML introduise une politique spécifiquement destinée à ces systèmes. Comme Goldberg, elle a déclaré avoir entendu des anglophones non natifs dire que de tels outils peuvent être « incroyablement utiles » pour la rédaction d'articles, et a ajouté que les modèles linguistiques ont le potentiel d'apporter des modifications plus radicales au texte.

    « Je vois les LLM comme tout à fait distincts de quelque chose comme la correction automatique ou la grammaire, qui sont des outils correctifs et éducatifs », a déclaré Raji. « Bien qu'ils puissent être utilisés à cette fin, les LLM ne sont pas explicitement conçus pour ajuster la structure et la langue du texte déjà écrit - ils ont également d'autres capacités plus problématiques, telles que la génération de nouveaux textes et de spam ».

    Goldberg a déclaré que même s'il pensait qu'il était certainement possible pour les universitaires de générer des articles entièrement à l'aide de l'IA, « ils sont très peu incités à le faire ». « En fin de compte, les auteurs signent sur le papier et ont une réputation à tenir », a-t-il déclaré. « Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ».

    Ce point est particulièrement important étant donné qu'il n'existe aucun moyen totalement fiable de détecter le texte généré par l'IA. Même l'ICML note qu'une détection infaillible est « difficile » et que la conférence n'appliquera pas son interdiction de manière proactive en exécutant les soumissions via un logiciel de détection. Au lieu de cela, elle n'enquêtera que sur les soumissions qui ont été signalées par d'autres universitaires comme suspectes.

    En d'autres termes : en réponse à l'essor des technologies perturbatrices et nouvelles, les organisateurs s'appuient sur des mécanismes sociaux traditionnels pour faire respecter les normes académiques. L'IA peut être utilisée pour peaufiner, éditer ou écrire du texte, mais il appartiendra toujours aux humains d'évaluer sa valeur.

    Source : ICML

    Et vous ?

    Que pensez-vous de la décision de l'ICML de bannir l'utilisation de chatGPT ?
    Que pensez-vous des propos des experts dans le domaine de l'IA qui voient en de tels outils une opportunité pour leurs pairs qui ne sont pas anglophones natifs de mieux présenter leurs idées ?
    « [Les universitaires] sont très peu incités à le faire [se servir d'un outil comme chatGPT pour générer entièrement leurs articles par IA]. Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ». Partagez-vous ce point de vue ?
    D'une manière plus générale, que pensez-vous des outils comme chatGPT ? En avez-vous déjà essayé un ?
    Si oui, lequel et qu'en avez-vous pensé ? Si non, aimeriez-vous en essayer un ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 859
    Par défaut
    A mon sens, il s'agit du même débat que celui suscité par Victor Hugo avec sa première pièce de théâtre entre les anciens et les modernes en 1831. Depuis, nous savons tous qui a gagné et Victor Hugo est entré à l'académie française. ChatGPT n'entrera pas dans un quelconque ordre mais il marque son temps et le futur en enterrant bon nombre de métiers. Il y aura un avant et un après c'est certain. Sans doute ne restera-t-il pas au top toute sa vie et qu'il y aura mieux. AMECA qui produit des robots humanoïdes reproduisant des expressions humaines a intégré GPT et le résultat est prometteur. Des compagnons de vie pour nos anciens ?

  7. #7
    Membre très actif
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    199
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 199
    Par défaut
    L'une des conférences sur l'apprentissage automatique les plus prestigieuses au monde a interdit aux auteurs d'utiliser des outils d'IA comme ChatGPT pour rédiger des articles scientifiques. Une ironie de ne pas utiliser un outil qui s'appuie sur l'apprentissage automatique pour démontrer son évolution en rédigeant des articles universitaires dans cette discipline ?
    Réponse de ChatGPT:

    Il est effectivement surprenant que l'ICML (International Conference on Machine Learning), une conférence sur l'apprentissage automatique, ait décidé de bannir l'utilisation de ChatGPT et d'autres outils d'IA pour rédiger des articles scientifiques. Cela peut sembler ironique, étant donné que l'apprentissage automatique est l'un des domaines de recherche les plus importants et les plus pertinents de l'IA et que ChatGPT est un outil basé sur l'apprentissage automatique.

    Cependant, il est important de noter que la décision de bannir l'utilisation de ChatGPT et d'autres outils d'IA pour rédiger des articles scientifiques a sans doute été prise pour de bonnes raisons. Il est possible que l'ICML ait souhaité encourager les auteurs à rédiger leurs articles eux-mêmes plutôt que de se reposer sur des outils automatisés, ou que l'ICML ait souhaité s'assurer que les articles publiés reflètent véritablement les idées et les recherches des auteurs et ne sont pas simplement le produit de l'utilisation de logiciels de rédaction automatisés.

    Il est difficile de savoir exactement pourquoi l'ICML a pris cette décision sans plus de contexte. Néanmoins, il est important de respecter les décisions prises par les organisateurs de conférences et de s'y conformer.
    Mouais, bof. En fait, rien n'empêche de passer son article au crible de ChatGPT pour se passer d'un relecteur. Encore que cela a ses limites.

  8. #8
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Citation Envoyé par eric44000 Voir le message
    Réponse de ChatGPT:



    Mouais, bof. En fait, rien n'empêche de passer son article au crible de ChatGPT pour se passer d'un relecteur. Encore que cela a ses limites.
    Si tu as déjà essayé, ce qui est mon cas, il te propose des choses qui ne sont pas bonne, voir pire, quand tu lui demande de l'aide sur du code ou des concepts, il dit des choses fausses, exemple, demande lui ce qu'est le TDD et de te montrer un exemple et tu verras.

    Il ne faut pas oublier que ChatGPT est en version béta et n'est clairement pas au point.
    Ce qui est au point, c'est le modèle de langage, ce qui n'a rien à voir.

    Le modèle de langage c'est la capacité à parler comme si c'était un humain, mais ce qu'il dit lui, est bourré d'erreurs, d'incompréhensions, de choses fausses littéralement, et tout les juniors qui vont s'appuyer sur lui pour apprendre des trucs, je pense par exemple aux élèves dans le monde du dev, vont être bourré de biais car ChatGPT va leur avoir appris des choses tout simplement fausse mais qui auront l'air totalement vraies.

  9. #9
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 859
    Par défaut
    Il s'agit du travail de prof.

  10. #10
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Il s'agit du travail de prof.
    Euh ... Enseigner des choses fausses mais qui ont l'air totalement vraies ?

    Ah, mais alors ça peut expliquer des choses.

    Par exemple pourquoi nous en sommes là.

  11. #11
    Membre très actif
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    199
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 199
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Si tu as déjà essayé, ce qui est mon cas, il te propose des choses qui ne sont pas bonne, voir pire, quand tu lui demande de l'aide sur du code ou des concepts, il dit des choses fausses, exemple, demande lui ce qu'est le TDD et de te montrer un exemple et tu verras.

    Il ne faut pas oublier que ChatGPT est en version béta et n'est clairement pas au point.
    Ce qui est au point, c'est le modèle de langage, ce qui n'a rien à voir.

    Le modèle de langage c'est la capacité à parler comme si c'était un humain, mais ce qu'il dit lui, est bourré d'erreurs, d'incompréhensions, de choses fausses littéralement, et tout les juniors qui vont s'appuyer sur lui pour apprendre des trucs, je pense par exemple aux élèves dans le monde du dev, vont être bourré de biais car ChatGPT va leur avoir appris des choses tout simplement fausse mais qui auront l'air totalement vraies.
    Pour l'avoir essayé un peu, je ne trouve pas qu'il fait beaucoup d'erreur et c'est là qu'est le danger de la chose. On a vite fait de lui faire confiance: les élèves d'école primaire et collégiens peuvent leur confier leurs devoirs. Cela passe encore au lycée malgré quelques approximations. Par contre je trouve qu'au niveau universitaire, c'est une buse.

    Alors de là à s'en servir pour rédiger un article scientifique, il y a une abime. L'ICML aurait mieux fait de se taire. Bannir l'utilisation de ChatGPT est d'une telle évidence dans ce cas (surtout par des spécialistes d'IA), que cela devient ridicule de le dire. Qui d'autres qu'eux savent mieux les limitations de l'IA ?

  12. #12
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Code Java : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    // 1a
    public int getScore()
    {
    *
    // Check if this is a bonus game
    if (isBonus()) {
    // If it is, triple the final score
    score = 3;
     
    }
    OK. Alors au-dessus, on avait score=1 (par exemple, ça ne marche pas avec 0,5 ou 2).

    Qu'est-ce qu'on avait un peu plus haut ?
    Oups, raté.

    Tripler 0, ça fait 0.

    Ou alors 0 pointé, enfin ça c'est une autre affaire ...

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut OpenAI développe un logiciel pour détecter le texte généré par ChatGPT
    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT,
    plusieurs outils sont déjà proposés pour aider à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

    OpenAI développe un logiciel capable de détecter si du texte a été généré par son modèle ChatGPT après que les responsables de l'éducation de la ville de New York ont annoncé qu'il empêchait les élèves d'accéder à l'outil dans les écoles publiques.

    Les rapports d'élèves utilisant l'IA pour faire leurs devoirs à leur place ont incité les enseignants à réfléchir à la manière dont ils affectent l'éducation. Certains ont exprimé des inquiétudes quant à la façon dont les modèles de langages peuvent plagier des travaux existants ou permettre aux étudiants de tricher. Maintenant, OpenAI travaillerait à développer des « atténuations » qui aideront les gens à détecter le texte généré automatiquement par ChatGPT.

    « Nous avons rendu ChatGPT disponible en tant que Research Preview pour apprendre de l'utilisation dans le monde réel, ce qui, selon nous, est un élément essentiel du développement et du déploiement de systèmes d'IA capables et sûrs. Nous intégrons constamment les commentaires et les leçons apprises », a déclaré un porte-parole de l'entreprise.


    À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

    « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    « C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.

    « Nous avons toujours appelé à la transparence autour de l'utilisation du texte généré par l'IA. Nos politiques exigent que les utilisateurs soient francs avec leur public lorsqu'ils utilisent notre API et nos outils créatifs... Nous sommes impatients de travailler avec les éducateurs sur des solutions utiles, et d'autres façons d'aider les enseignants et les étudiants à tirer parti de l'IA*», a indiqué un porte-parole d'OpenAI.

    Être capable de distinguer l'écriture produite par un humain ou une machine changera la façon dont ils peuvent être utilisés dans le milieu universitaire. Les écoles seraient en mesure d'appliquer plus efficacement l'interdiction des essais générés par l'IA, ou peut-être seraient-elles plus disposées à accepter des articles si elles pouvaient voir comment ces outils peuvent aider leurs élèves.

    Oui, les modèles de langage génératif peuvent être bons mais ils ne savent pas de quoi ils parlent

    Aussi impressionnant que puisse paraître l'écriture générée par l'IA dans les gros titres avec des conférences universitaires et des écoles interdisant les articles écrits par machine, voici un rappel qu'ils manquent de compréhension par rapport à la véritable écriture humaine.

    Dans un éditorial publié dans Salon, Gary Smith, professeur d'économie au Pomona College, a présenté quelques exemples où GPT-3 ne parvient pas à raisonner et à répondre efficacement aux questions :

    « Si vous jouez avec GPT-3 (et je vous encourage à le faire), votre réponse initiale sera probablement l'étonnement... Vous semblez avoir une vraie conversation avec une personne très intelligente. Cependant, en approfondissant, vous découvrirez bientôt que si le GPT-3 peut enchaîner des mots de manière convaincante, il n'a aucune idée de ce que signifient les mots », a-t-il écrit.

    « Prédire que le mot terre est susceptible de suivre le groupe de mots tomber par ne nécessite aucune compréhension de ce que signifie l'un ou l'autre mot - seulement un calcul statistique que ces mots vont souvent ensemble. Par conséquent, GPT-3 est enclin à faire des déclarations faisant autorité qui sont finalement complètement fausses ».

    OpenAI a publié ChatGPT, un modèle plus récent en novembre dernier, conçu pour être une amélioration de GPT-3, mais il souffre toujours des mêmes problèmes, comme tous les modèles de langage existants.

    Nom : chat.png
Affichages : 15843
Taille : 251,2 Ko

    Cela a-t-il été écrit par un robot ? Ces outils aident à détecter le texte généré par l'IA

    C'est tellement difficile d'être un bot de nos jours. Juste au moment où vous pensiez que nous écririons tous avec l'IA d'ici à l'éternité, les ingénieurs ont commencé à développer de nouvelles façons de détecter si le texte a été écrit par ChatGPT ou un autre générateur de texte AI.

    Voici trois outils de détection qui peuvent être utilisés dès maintenant (ou très bientôt).

    Détecteur de sortie GPT-2

    OpenAI impressionne Internet avec ses efforts pour reproduire l'intelligence humaine et les capacités artistiques depuis 2015. Mais en novembre dernier, la société est finalement devenue méga-virale avec la sortie du générateur de texte AI ChatGPT. Les utilisateurs de l'outil bêta ont publié des exemples de réponses textuelles générées par l'IA à des invites qui semblaient si légitimes qu'elles ont semé la peur dans le cœur des enseignants et ont même fait craindre à Google que l'outil ne tue son activité de recherche.

    Si les ingénieurs d'OpenAI sont capables de créer un bot qui peut écrire aussi bien ou mieux que l'humain moyen, il va de soi qu'ils peuvent également créer un bot qui est meilleur que l'humain moyen pour détecter si le texte a été généré par IA.

    La démo en ligne du modèle de détecteur de sortie GPT-2 vous permet de coller du texte dans une boîte et de voir immédiatement la probabilité que le texte ait été écrit par l'IA. Selon les recherches d'OpenAI, l'outil a un taux de détection relativement élevé, mais « doit être associé à des approches basées sur les métadonnées, au jugement humain et à l'éducation du public pour être plus efficace ».

    GLTR (Giant Language model Test Room)

    Lorsque OpenAI a publié GPT-2 en 2019, les gens du MIT-IBM Watson AI Lab et du Harvard Natural Language Processing Group ont uni leurs forces pour créer un algorithme qui tente de détecter si le texte a été écrit par un bot.

    Un texte généré par ordinateur peut sembler avoir été écrit par un humain, mais un écrivain humain est plus susceptible de sélectionner des mots imprévisibles. En utilisant la méthode « il en faut un pour en connaître un », si l'algorithme GLTR peut prédire le mot suivant dans une phrase, alors il supposera que cette phrase a été écrite par un bot.

    GPTZero

    Durant la période des fêtes de fin d'années, Edward Tian était occupé à créer GPTZero, une application qui peut aider à déterminer si le texte a été écrit par un humain ou un bot. En tant qu'universitaire à Princeton, Tian comprend comment les professeurs d'université pourraient avoir un intérêt direct à détecter un « AIgiarism », ou un plagiat assisté par IA.

    Tian dit que son outil mesure le caractère aléatoire des phrases ("perplexité") plus le caractère aléatoire global ("burstiness") pour calculer la probabilité que le texte ait été écrit par ChatGPT. Depuis qu'il a tweeté à propos de GPTZero le 2 janvier, Tian dit qu'il a déjà été approché par des sociétés à capital risque souhaitant investir et qu'il développera bientôt des versions mises à jour.

    Filigrane (à venir)

    En plus d'aborder le problème comme les détecteurs de plagiat l'ont fait dans le passé, OpenAI tente de résoudre le problème en filigranant tout le texte ChatGPT. Selon une récente conférence sur la sécurité de l'IA par le chercheur invité d'OpenAI, Scott Aaronson, les ingénieurs ont déjà construit un prototype fonctionnel qui ajoute un filigrane à tout texte créé par OpenAI.

    « Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret autrement imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT », explique Aaronson. L'outil utiliserait ce qu'il appelle une « fonction cryptographique pseudo-aléatoire ». Et seul OpenAI aurait accès à cette clé.

    Apple ne veut pas rater le train de l'IA grand public, mais s'oriente vers des livres audio racontés par des voix synthétisées par une IA

    Apple cherche à s'associer à des écrivains et éditeurs indépendants pour les aider à raconter leurs livres en utilisant des voix synthétisées par IA.

    Les auteurs ont été invités à contacter Draft2Digital et Ingram CoreSource, deux sociétés qui produisent et publient des livres électroniques sur l'application Apple Books, s'ils souhaitent transformer leur travail en livres audio. Ils n'acceptent que les soumissions écrites en anglais pour la romance et la fiction, les autres genres ne sont pas encore pris en charge.

    « De plus en plus d'amateurs de livres écoutent des livres audio, mais seule une fraction des livres est convertie en audio, laissant des millions de titres inédits », a déclaré Apple dans un article de blog. « De nombreux auteurs - en particulier les auteurs indépendants et ceux associés à de petits éditeurs - ne sont pas en mesure de créer des livres audio en raison du coût et de la complexité de la production. La narration numérique Apple Books rend la création de livres audio plus accessible à tous, vous aidant à répondre à la demande croissante. en mettant plus de livres à la disposition des auditeurs ».

    Par rapport aux sons robotiques et minuscules que les ordinateurs produisaient lorsqu'ils imitaient les humains, les voix synthétiques de l'IA se sont considérablement améliorées. Elles sonnent maintenant assez naturellement et sont moins monotones.

    La nouvelle fonctionnalité permettra aux auteurs auto-publiés d'élargir leur audience et leur donnera une autre source de revenus. Comme toujours, Apple prendra jusqu'à 30% de tous les achats effectués sur les applications disponibles sur son App Store.

    Sources : OpenAI, Apple, GLTR

    Et vous ?

    Développer des outils capables d'indiquer si des textes ont été générés par IA ou par un humain est-il, selon vous, une urgence dans le contexte de la disponibilité d'outils comme ChatGPT ? Pourquoi ?
    Que pensez-vous de l'approche d'Apple ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  14. #14
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut VALL-E : l'IA de Microsoft peut imiter n'importe quelle voix avec seulement un échantillon de 3 secondes
    VALL-E : l'IA de synthèse vocale de Microsoft peut imiter n'importe quelle voix avec seulement un échantillon de trois secondes,
    y compris les émotions et le ton d'un orateur

    Microsoft a récemment publié VALL-E, un nouveau modèle de langage pour la synthèse vocale TTS (text-to-speech). Après avoir été formé sur 60 000 heures de données vocales en anglais, il a démontré des capacités d'apprentissage en contexte dans des situations sans coup sûr. VALL-E vous permet de créer un discours personnalisé de haute qualité avec seulement un enregistrement de 3 secondes. Il permet des techniques TTS basées sur des invites qui sont instantanées et contextuelles. Il n'est pas nécessaire d'ajouter une ingénierie structurelle ou des caractéristiques acoustiques préconçues.

    Il s'agit d'un progrès significatif dans la direction de systèmes TTS au son plus naturel. Microsoft a fourni quelques exemples du modèle utilisé qui montre les évolutions dans le développement de la technologie TTS.


    Microsoft a récemment publié un outil d'intelligence artificielle connu sous le nom de VALL-E qui peut reproduire la voix des gens. L'outil a été formé sur 60 000 heures de données vocales en anglais et utilise des clips de 3 secondes de voix spécifiques pour générer du contenu. Contrairement à de nombreux outils d'intelligence artificielle, VALL-E peut reproduire les émotions et le ton d'un orateur, même lors de la création d'un enregistrement de mots que l'orateur d'origine n'a jamais prononcés. En clair, une fois qu’il a appris une voix spécifique, VALL-E peut synthétiser l’audio de cette personne disant n’importe quoi et le faire d’une manière qui tente de préserver le ton émotionnel de l’orateur.

    En plus de préserver le timbre vocal et le ton émotionnel d’un locuteur, VALL-E peut également imiter « l’environnement acoustique » de l’échantillon audio. Par exemple, si l’échantillon provient d’un appel téléphonique, la sortie audio ressemblera également à un appel téléphonique.

    Un article de l'Université Cornell a utilisé VALL-E pour synthétiser plusieurs voix. Quelques exemples de travaux sont disponibles sur GitHub.

    Les échantillons de voix partagés par Microsoft varient en qualité. Alors que certains d'entre eux semblent naturels, d'autres sont clairement générés par des machines et semblent robotiques. Bien sûr, l'IA a tendance à s'améliorer avec le temps, donc à l'avenir, les enregistrements générés seront probablement plus convaincants. De plus, VALL-E n'utilise que des enregistrements de 3 secondes comme invite. Si la technologie était utilisée avec un ensemble d'échantillons plus grand, elle pourrait sans aucun doute créer des échantillons plus réalistes.

    Ses créateurs pensent que VALL-E pourrait être utilisé pour des applications de synthèse vocale de haute qualité, l’édition de la parole où un enregistrement d’une personne pourrait être édité et modifié à partir d’une transcription textuelle.

    VALL-E est un « modèle de langage de codec neuronal » qui s’appuie sur une technologie baptisée EnCodec, qui a été présentée par Meta en octobre 2022. Encodec est une méthode de compression audio alimentée par l'IA, qui serait capable de compresser le son 10 fois plus petit que le format MP3 à 64 kbps, sans perte de qualité. Selon Meta, cette technique pourrait améliorer considérablement la qualité sonore des discours sur les connexions à faible bande passante, comme les appels téléphoniques dans les zones où le service est irrégulier. Les chercheurs de Meta auraient obtenu des résultats de pointe en matière de compression audio vocale à faible débit (1,5 kbps à 12 kbps), évalués par des annotateurs humains qui ont comparé plusieurs méthodes de compression, dont le dernier codec Lyra-v2 de Google, avec la méthode non compressée et les ont classées en conséquence.

    Contrairement à d’autres méthodes de synthèse vocale qui synthétisent généralement la parole en manipulant des formes d’onde, VALL-E génère des codes de codec audio discrets à partir d’invites textuelles et acoustiques. Il analyse essentiellement le son d’une personne, décompose ces informations en composants discrets (appelés « jetons ») grâce à EnCodec, et utilise des données d’entraînement pour faire correspondre ce qu’il « sait » sur la façon dont cette voix sonnerait si elle prononçait d’autres phrases en dehors de l'échantillon.

    Citation Envoyé par Microsoft
    Nous introduisons une approche de modélisation du langage pour la synthèse vocale (TTS). Plus précisément, nous entraînons un modèle de langage de codec neuronal (appelé VALL-E) à l'aide de codes discrets dérivés d'un modèle de codec audio neuronal prêt à l'emploi, et considérons TTS comme une tâche de modélisation de langage conditionnelle plutôt qu'une régression continue du signal comme dans les travaux précédents. Au cours de la phase de pré-formation, nous augmentons les données de formation TTS à 60 000 heures de conversation en anglais, ce qui est des centaines de fois plus important que les systèmes existants. VALL-E émerge des capacités d'apprentissage en contexte et peut être utilisé pour synthétiser un discours personnalisé de haute qualité avec seulement un enregistrement inscrit de 3 secondes d'un locuteur invisible comme invite acoustique. Les résultats des expériences montrent que VALL-E surpasse de manière significative le système TTS zéro-shot de pointe en termes de naturel de la parole et de similarité des locuteurs. De plus, nous constatons que VALL-E pourrait préserver l'émotion de l'orateur et l'environnement acoustique de l'invite acoustique en synthèse.
    Nom : model.png
Affichages : 10505
Taille : 122,0 Ko
    Présentation du modèle

    Déjà des préoccupations éthiques

    Pour le moment, VALL-E n'est généralement pas disponible, ce qui peut être une bonne chose car les répliques de la voix des personnes générées par l'IA pourraient être utilisées de manière dangereuse par des acteurs malveillants et d'autres personnes ayant des intentions malveillantes :

    « Étant donné que VALL-E pourrait synthétiser la parole qui maintient l’identité du locuteur, il peut comporter des risques potentiels d’utilisation abusive du modèle, tels que l’usurpation d’identification vocale ou l’usurpation d’identité d’un locuteur spécifique. Pour atténuer ces risques, il est possible de construire un modèle de détection pour discriminer si un clip audio a été synthétisé par VALL-E. Nous mettrons également en pratique les principes de Microsoft AI lors du développement ultérieur des modèles ».

    Bien que VALL-E soit sans aucun doute impressionnant, il soulève plusieurs préoccupations éthiques. À mesure que l'intelligence artificielle deviendra plus puissante, les voix générées par VALL-E et les technologies similaires deviendront plus convaincantes. Cela ouvrirait la porte à des appels de spam réalistes reproduisant les voix de personnes réelles qu'une victime potentielle connaît.

    Les politiciens et autres personnalités publiques pourraient également être usurpés. Avec la vitesse de propagation des médias sociaux et la polarité des discussions politiques, il est peu probable que beaucoup s'arrêtent pour demander si un enregistrement scandaleux est authentique, tant qu'il semble au moins quelque peu authentique.

    Les problèmes de sécurité viennent également à l'esprit. Certaines banques ont une option visant à utiliser la voix comme mot de passe lorsqu'un propriétaire de compte appelle. Il existe des mesures en place pour détecter les enregistrements vocaux et nous pouvons supposer que la technologie pourrait détecter si une voix VALL-E était utilisée. Cela étant dit, il y a de quoi rendre mal à l'aise. Il y a de fortes chances que la course aux armements s'intensifie entre le contenu généré par l'IA et les logiciels de détection de l'IA.

    Bien qu'il ne s'agisse pas d'un problème de sécurité, certains ont évoqué le fait que les acteurs faisant des doublages pourraient perdre du travail au profit de VALL-E et des technologies concurrentes. Bien qu'il soit malheureux de voir des gens perdre leur travail, difficile de voir comment contourner cela. Si VALL-E atteint un point où il peut remplacer les acteurs vocaux pour les livres audio ou d'autres contenus, les entreprises vont l'utiliser. C'est juste la réalité de la technologie qui progresse.

    En fait, Apple a récemment annoncé une fonctionnalité qui utilise l'IA pour lire des livres audio. « De plus en plus d'amateurs de livres écoutent des livres audio, mais seule une fraction des livres est convertie en audio, laissant des millions de titres inédits », a déclaré Apple dans un article de blog. « De nombreux auteurs - en particulier les auteurs indépendants et ceux associés à de petits éditeurs - ne sont pas en mesure de créer des livres audio en raison du coût et de la complexité de la production. La narration numérique Apple Books rend la création de livres audio plus accessible à tous, vous aidant à répondre à la demande croissante. en mettant plus de livres à la disposition des auditeurs ».

    La nouvelle fonctionnalité permettra aux auteurs auto-publiés d'élargir leur audience et leur donnera une autre source de revenus. Comme toujours, Apple prendra jusqu'à 30% de tous les achats effectués sur les applications disponibles sur son App Store.

    Comme toute technologie, VALL-E sera utilisé pour le bien, le mal et tout le reste. Microsoft a une déclaration d'éthique sur l'utilisation de VALL-E, mais l'avenir de son utilisation est encore trouble. Le président de Microsoft, Brad Smith, a discuté de la réglementation de l'IA dans le passé. Nous devrons voir quelles mesures Microsoft met en place pour réglementer l'utilisation de VALL-E.

    Démos de VALL-E sur GitHub

    Sources : VALL-E, Apple

    Et vous ?

    Que pensez-vous de VALL-E ?
    Comprenez-vous la raison pour laquelle Microsoft n'a pas encore donné la possibilité au public de tester cet outil ?
    Quels dérives imaginez-vous avec cet outil ?
    Les doubleurs sont-ils susceptibles d'être inquiétés par une telle technologie ? Dans quelle mesure ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #15
    Membre confirmé
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Juillet 2018
    Messages
    120
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Russie

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Juillet 2018
    Messages : 120
    Par défaut
    Techniquement c'est très fort. Cependant les utilisations malveillantes sont multiples et très dangereuses.
    Que se soit des groupes de hackers, des agences gouvernementales ou le script kiddie du quartier, les dégâts peuvent être énormes...

    Je vois aussi d'ici les utilisations commercial louche du style : "venez écouter la voix de votre défunt mari pour seulement xxx€"
    En regardant plus loin on pourrait même imaginer voir des propositions du style : "passé une vie éternel avec la personne que vous aimez dans le métaverse pour seulement quelques euros"

    Et imaginons une autre possibilité : on pourrait copier la voix de n'importe quel chanteur/se... aie les droits

  16. #16
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 859

  17. #17
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    988
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 988
    Par défaut
    La démo est impressionnante.

    J'ai hâte qu'ils sortent une version française gratuite pour avoir avoir une synthèse vocale plus sexy que "Microsoft Hortense" pour podcaster les rapports que j'ai pas envie de lire

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut À Lyon, ChatGPT est utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs
    À Lyon, ChatGPT est utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs
    « Cette pratique m’inquiète. Elle pose un véritable problème d’intégration des savoirs », prévient Stéphane Bonvallet

    À Lyon, un professeur a remarqué de curieuses similitudes dans les copies rendues par la moitié de ses étudiants; il leur avait donné une semaine pour rédiger leurs devoirs. Si les mots différaient, leurs structures démonstratives et leurs exemples sont restés constamment les mêmes. C’est en se renseignant auprès de ses élèves que l’un d’eux a fini par avouer l’utilisation de ChatGPT dans la rédaction.

    À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

    « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    « C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.

    Être capable de distinguer l'écriture produite par un humain ou une machine changera la façon dont ils peuvent être utilisés dans le milieu universitaire. Les écoles seraient en mesure d'appliquer plus efficacement l'interdiction des essais générés par l'IA, ou peut-être seraient-elles plus disposées à accepter des articles si elles pouvaient voir comment ces outils peuvent aider leurs élèves.

    Nom : martin.png
Affichages : 26684
Taille : 25,5 Ko

    Premier cas connu en France de l'utilisation de ChatGPT en milieu universitaire ?

    Le journal lyonnais Le Progrès nous fait déjà part d’un premier cas connu d’utilisation de l’IA chez les étudiants dans l'Hexagone.

    Stéphane Bonvallet, enseignant en handicapologie (matière enseignée dans certains cursus de santé du secondaire), a demandé à ses élèves de faculté de Lyon de «*Définir les grands traits de l’approche médicale du handicap en Europe*». Il leur a laissé une semaine pour travailler sur le sujet.

    Cependant, lors de la correction, il s'est aperçu que sept copies sur les quatorze de sa classe font appel à une construction identique, avancent des arguments qui se ressemblent, mais sans jamais tourner au plagiat : «*Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière*», relate-t-il. «*On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts ».

    Stéphane Bonvallet raconte au Progrès en avoir discuté directement avec une étudiante. Elle reconnaît alors que la moitié de la promotion de 14 élèves ont eu recours à ChatGPT.

    Les étudiants n’ont pas reçu de blâme pour cet usage, puisque l’utilisation d'outil de la même trempe que ChatGPT n'est pas proscrit par le milieu scolaire : « n’ayant pas de cadre interdisant actuellement cette pratique, j’ai été contraint de les noter », explique-t-il au quotidien. Puisque les autres notes étaient comprises entre 10 et 12,5, le professeur a choisi d'attribuer la même note de 11,75 à tous ces travaux qui se sont appuyés sur ChatGPT.

    En se renseignant auprès de ses collègues, il a fait le constat que ce cas était loin d’être isolé.

    « Cette pratique m’inquiète. Elle pose un véritable problème d’intégration des savoirs, car les élèves n’ont plus besoin d’effectuer la moindre recherche pour composer », a regretté le professeur.

    Les copies sont désormais en possession de la direction.

    La ville de New York interdit aux étudiants et aux enseignants d'utiliser ChatGPT

    « En raison de préoccupations concernant les effets négatifs sur l'apprentissage des élèves, ainsi que la sécurité et l'exactitude du contenu, l'accès à ChatGPT est prohibé sur les réseaux et les appareils des écoles publiques de la ville de New York », déclare un porte-parole du Département de l’éducation de la ville.

    La controverse au sujet de cette décision tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.

    Oui, les modèles de langage génératif peuvent être bons mais ils ne savent pas de quoi ils parlent

    Aussi impressionnant que puisse paraître l'écriture générée par l'IA dans les gros titres avec des conférences universitaires et des écoles interdisant les articles écrits par machine, voici un rappel qu'ils manquent de compréhension par rapport à la véritable écriture humaine.

    Dans un éditorial publié dans Salon, Gary Smith, professeur d'économie au Pomona College, a présenté quelques exemples où GPT-3 ne parvient pas à raisonner et à répondre efficacement aux questions :

    « Si vous jouez avec GPT-3 (et je vous encourage à le faire), votre réponse initiale sera probablement l'étonnement... Vous semblez avoir une vraie conversation avec une personne très intelligente. Cependant, en approfondissant, vous découvrirez bientôt que si le GPT-3 peut enchaîner des mots de manière convaincante, il n'a aucune idée de ce que signifient les mots », a-t-il écrit.

    « Prédire que le mot terre est susceptible de suivre le groupe de mots tomber par ne nécessite aucune compréhension de ce que signifie l'un ou l'autre mot - seulement un calcul statistique que ces mots vont souvent ensemble. Par conséquent, GPT-3 est enclin à faire des déclarations faisant autorité qui sont finalement complètement fausses ».

    Cela a-t-il été écrit par un robot ? Ces outils aident à détecter le texte généré par l'IA

    C'est tellement difficile d'être un bot de nos jours. Juste au moment où vous pensiez que nous écririons tous avec l'IA d'ici à l'éternité, les ingénieurs ont commencé à développer de nouvelles façons de détecter si le texte a été écrit par ChatGPT ou un autre générateur de texte AI.

    Voici trois outils de détection qui peuvent être utilisés dès maintenant (ou très bientôt).

    Détecteur de sortie GPT-2

    OpenAI impressionne Internet avec ses efforts pour reproduire l'intelligence humaine et les capacités artistiques depuis 2015. Mais en novembre dernier, la société est finalement devenue méga-virale avec la sortie du générateur de texte AI ChatGPT. Les utilisateurs de l'outil bêta ont publié des exemples de réponses textuelles générées par l'IA à des invites qui semblaient si légitimes qu'elles ont semé la peur dans le cœur des enseignants et ont même fait craindre à Google que l'outil ne tue son activité de recherche.

    Si les ingénieurs d'OpenAI sont capables de créer un bot qui peut écrire aussi bien ou mieux que l'humain moyen, il va de soi qu'ils peuvent également créer un bot qui est meilleur que l'humain moyen pour détecter si le texte a été généré par IA.

    La démo en ligne du modèle de détecteur de sortie GPT-2 vous permet de coller du texte dans une boîte et de voir immédiatement la probabilité que le texte ait été écrit par l'IA. Selon les recherches d'OpenAI, l'outil a un taux de détection relativement élevé, mais « doit être associé à des approches basées sur les métadonnées, au jugement humain et à l'éducation du public pour être plus efficace ».

    GLTR (Giant Language model Test Room)

    Lorsque OpenAI a publié GPT-2 en 2019, les gens du MIT-IBM Watson AI Lab et du Harvard Natural Language Processing Group ont uni leurs forces pour créer un algorithme qui tente de détecter si le texte a été écrit par un bot.

    Un texte généré par ordinateur peut sembler avoir été écrit par un humain, mais un écrivain humain est plus susceptible de sélectionner des mots imprévisibles. En utilisant la méthode « il en faut un pour en connaître un », si l'algorithme GLTR peut prédire le mot suivant dans une phrase, alors il supposera que cette phrase a été écrite par un bot.

    GPTZero

    Durant la période des fêtes de fin d'années, Edward Tian était occupé à créer GPTZero, une application qui peut aider à déterminer si le texte a été écrit par un humain ou un bot. En tant qu'universitaire à Princeton, Tian comprend comment les professeurs d'université pourraient avoir un intérêt direct à détecter un « AIgiarism », ou un plagiat assisté par IA.

    Tian dit que son outil mesure le caractère aléatoire des phrases ("perplexité") plus le caractère aléatoire global ("burstiness") pour calculer la probabilité que le texte ait été écrit par ChatGPT. Depuis qu'il a tweeté à propos de GPTZero le 2 janvier, Tian dit qu'il a déjà été approché par des sociétés à capital risque souhaitant investir et qu'il développera bientôt des versions mises à jour.

    Filigrane (à venir)

    En plus d'aborder le problème comme les détecteurs de plagiat l'ont fait dans le passé, OpenAI tente de résoudre le problème en filigranant tout le texte ChatGPT. Selon une récente conférence sur la sécurité de l'IA par le chercheur invité d'OpenAI, Scott Aaronson, les ingénieurs ont déjà construit un prototype fonctionnel qui ajoute un filigrane à tout texte créé par OpenAI.

    « Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret autrement imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT », explique Aaronson. L'outil utiliserait ce qu'il appelle une « fonction cryptographique pseudo-aléatoire ». Et seul OpenAI aurait accès à cette clé.

    Conclusion

    Le plus grand débat tourne autour de la possibilité de voir les intelligences artificielles rendues au stade où elles sont dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

    Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

    L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu.

    Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.

    Source : Le Progrès

    Et vous ?

    Pour ou contre l'utilisation des outils comme ChatGPT en milieu scolaire ? Pourquoi ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #19
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 859
    Par défaut
    Pour ou contre l'utilisation des outils comme ChatGPT en milieu scolaire ? Pourquoi ?
    Pour. Les étudiants retrouveront de tels outils dans le milieu professionnel. Par contre, il faut faire des contrôles de connaissance en classe de collège, lycée et université car se contenter de copier-coller un texte sans le comprendre ou l'assimiler ferait baisser le niveau de connaissance.

  20. #20
    Invité
    Invité(e)
    Par défaut
    Si ChatGPT facilite la rédaction d'un devoir, c'est que l'exercice n'avait pas d'intérêt à la base.

    Quand un examen est bien fait, les antisèches dans la trousse, la calculatrice programmable ou l'IA ne sont pas déterminantes pour sa réussite. Les étudiants peuvent avoir leurs cours sur la table sans que cela ne change quoique ce soit.

Discussions similaires

  1. Réponses: 0
    Dernier message: 24/06/2024, 11h26
  2. Réponses: 0
    Dernier message: 21/03/2024, 20h09
  3. Réponses: 0
    Dernier message: 31/12/2022, 21h09
  4. Réponses: 8
    Dernier message: 04/06/2016, 17h36
  5. Les vieux sont très fort au Basket
    Par kOrt3x dans le forum Sports
    Réponses: 2
    Dernier message: 08/08/2013, 16h43

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo