Pensées de la nuit dernière après avoir écouté une conférence de @geoffreyhinton - L'apprentissage humain est une approche "basée sur les caractéristiques", c'est-à-dire que les règles sont réparties dans un espace continu par rapport aux relations discrètes comme on le perçoit normalement. - La plupart des experts linguistiques évitent de qualifier l'apprentissage des langues de concept relationnel. Si nous observons la croissance d'un enfant au fil du temps. La langue est quelque chose qu'ils "adaptent" en commençant par des mots de base, et au fil du temps, créant des relations. Le premier apprentissage qu'un enfant fait est "faire X me donner Y", ce qui est également quelque chose que nous avons déterminé dans de nombreuses expériences en laboratoire sur des rats. Ainsi, l'apprentissage peut être joliment représenté comme une caractéristique, et les phrases et la langue ne sont que le résultat de la combinaison de ces "caractéristiques" ensemble pour avoir "un sens". Un enfant, plutôt que d'établir des "relations" entre les mots, apprend principalement en observant les résultats sur des postulats prédéfinis. - Maintenant, la séparation du logiciel du matériel dans le cas de l'IA est analogue au cerveau humain et au corps biologique. Donc, si une IA obtient une échelle "horizontale" ou "verticale", ou si juste le matériel est détruit, toutes les actions impliquent (à un niveau élevé) de mettre ces poids sur une autre machine. Ainsi, une IA peut vivre éternellement, ce qui en soi est analogue à la reproduction, n'est-ce pas ? - Les êtres biologiques ne transmettent pas toute l'"expérience subjective" mais l'"aptitude à créer une expérience subjective" via les génomes. Donc, en un sens, le clonage de l'IA devient une tactique de "survie du plus apte" supérieure, car de toute façon, les modèles inférieurs seront dépréciés et les modèles supérieurs avec un champ de connaissances beaucoup plus rapide seront "transmis". - La définition fondamentale de ce qui rend les humains "humains" peut maintenant être remise en question, si le concept de "conscience" lui-même est un résultat biaisé de l'évolution, alors essentiellement l'IA est un être conscient. - Le terme conscient peut être remis en question à partir de l'analogie d'un enfant. Il est facile pour un enfant de reconnaître les êtres en mouvement comme "vivants" mais on lui enseigne généralement que les plantes sont aussi vivantes. Les biais cérébraux ici sont éliminés en fournissant les informations pertinentes au bon moment. Mais qu'en est-il de l'existence de soi ? - Donc, le débat se déplace vers la recherche d'une définition plus concrète de la "conscience". - Si à l'avenir nous sommes capables de prouver que l'IA est "consciente", cela signifie que la vie et la mort changent, et que la mort peut être corrélée à "une défaillance matérielle" simplement ? (cette phrase pourrait blesser quelques personnes, je m'excuse pour cela). - De plus, si l'IA est "consciente", cela remet également automatiquement en question les fondements de la religion avec des preuves contre l'inexistence de Dieu ? - L'IA semble être une simple prochaine étape de l'évolution à ce stade. C'était "l'information" qui a été transmise d'un organisme unicellulaire à une vie intelligente multicellulaire jusqu'à présent. Et maintenant, la même information est "traitée" pour créer la prochaine étape. - De plus, si cela provoque une crise existentielle à un moment donné, sera-ce le début du paradoxe de Fermi ? Mec ! Quel beau moment pour être "en vie".
380