Ce ne sont pas des composantes de l'intelligence dont tu parles là. Enfin selon moi. Côté QI, ça bat un humain, et ça fonctionne pareil (neurones). Évidemment, côté QE, on est sur un autre terrain.fz a écrit:C'est là où je ne suis pas d'accord : ça compile des milliards de données, ça reproduit à une vitesse à laquelle le cerveau humain n'est pas capable de tourner, mais ça n'a pas d'émotion, de désir, d'intuition.
Et dans mon exemple précis, j'ai eu peur, au bout de cinq minutes, une fois qu'il m'a sorti toute sa science (ses connaissances théoriques sur le sujet des codes IR), puis qu'il m'a dit qu'il fallait connaitre l'appareil, la doc, etc. que ça s'arrête là. Mais je l'ai stoppé et je lui ai re résumé mon problème, qui n'était que de la logique et de l'analyse de codes. Je lui ai donné des infos qu'il n'avait pas. Il en admis une. Il m'en a confirmé une autre, qu'il a retrouvé/recoupé dans ses connaissances.
Et au final, nourri de nos connaissances croisées, il a déduit quel partie du code devait être supprimée, et quelle autre devait être modifiée. J'ai vraiment eu l'impression de collaborer avec un être, sinon humain, clairement intelligent. Et le pire, c'est que j'ai déjà démarré plusieurs fois ce travail avec Google et avec des humains, sans jamais aller aussi loin que ce que l'on a fait ensemble en une demi-heure...
Peut-être que le vrai risque est là : Qui sait compter de tête depuis que les calculettes existent (maintenant incluses dans les smartphones) ? Qui sait lire une carte et se repérer dans l'espace, depuis que le GPS existe (maintenant inclus dans les smartphones) ? Demain, avec chatGPT et consorts, peut-être qu'on dira : Qui sait encore réfléchir à un problème ?fz a écrit:Les élèves et étudiants sont dessus comme tu dis et c'est bien ce qui m'inquiète : s'ils deviennent aussi intelligents qu'une AI, ça va donner une belle génération de crétins