Deux options possibles soit une forme de progrès horizontal (ou considéré en tant que tel) ceux en l'occurrence que tu détermines et tout ce qui a trait à de vagues notions humaines comme celle du sacrifice par exemple.
Ou alors nous y sommes déjà (artificielle ne devient alors ici qu'une interprétation du degré par lequel nous sommes affectés) par exemple le calcul intensif c'est déjà (au moment ou j'écris ces lignes) l'obsolescence de la méthode scientifique "GOOGLE" par exemple ne sont pas les meilleurs en terme de publicité parce qu’ils ont les meilleurs bataillons de sociologues ou philosophes ou autres psychologues mais simplement parce qu’ils ont les meilleurs outils informatiques permettant les données les plus fiables mathématiquement parlant auquel cas la notion d'intelligence artificielle non seulement existe déjà bel et bien mais qui plus est a déjà des implications concrètes dans beaucoup de domaines j'ajoute en terme de digression c'est un avis qui n'engage que moi mais que je partage que : tant que l'eventuelle possibilité d'une intelligence artifielle ne pouvait concurencer concurencer que l'indigence cela n'a jamais vraiment inquité grand monde les millieux intellectuels formaient un concensus pour dire qu'il était inutile de discuter des conséquences d'une cause qui n'existe pas hors ce n'est plus tout à fait le cas je mets en copié coller un début d'article sur ce qu'on appelle le "BIG DATA".
Nous voici entré dans l'ère des Big Data des ensembles de données tellement gigantesques qu'ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse... Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d'information doit apprendre à comprendre ce qu'elle analyse. L'enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c'est le dossier de la semaine d'InternetActu qui commence par un retour sur un article fondateur de 2008 qui posait les bases de la révolution à venir.
"Il y a soixante ans, les ordinateurs ont rendu l'information lisible. Il y a vingt ans, l'internet l'a rendu accessible. Aujourd'hui, Google et d'autres (...) nous permettent de traiter ce corpus massif de données comme le laboratoire de notre humaine condition." Bienvenue dans l'âge du Petaoctet. L'âge où les informations sont stockées dans les nuages, explique la revue The Edge, qui consacre un excellent dossier à la fin de la science.
Selon Chris Anderson, nous sommes à la fin de la science, de la science telle que nous la connaissons. "À l'échelle du pétaoctet, l'information n'est pas une question de simples dimensions en matière de taxonomie et d'ordre, mais de statistiques agnostiques en termes de dimensions. Cela nécessite une approche totalement différente, qui nous oblige à concevoir la donnée comme quelque chose qui ne peut être visualisée dans sa totalité. Cela nous oblige à regarder d'abord les données mathématiquement et établir leur contexte ensuite. Par exemple, Google a conquis le monde de la publicité avec rien de plus que des mathématiques appliquées. Google n'a pas la prétention de savoir tout sur la culture des hommes et les conventions de la publicité - il a juste supposé que des données de meilleure qualité, avec de meilleurs outils d'analyses, l'emporteraient. Et Google avait raison.
nos ordinateurs ont déjà cette possibilité de déterminer eux-mêmes des critères selon lesquels ils savent quels programmes télécharger pour mieux fonctionner, l'intelligence artificielle sera sans action humaine, l'auto-programmation par un langage informatique au code source commun et unique et déterminé par l'utilisation finale de la machine pour un besoin humain spécifique (en cours de développement), après si la machine peut se passer de son... créateur humain... remplacé par l'UC de l'Ordi pensant, on tombe dans de domaine de la Gore Anticipation SF genre I, robot, mais pas avant...bien longtemps..., pas avant d'avoir trouvé ce qui anime la matière
On aura l'intelligence artificielle , dès que l'ordis mangera des frites et boira de la bière une fois, après il pourra jeûner pour stimuler l'intelligence
ben ça ne va jamais se passer, pour la simple raison qu'ils auriont besoin de critères selon lesquels ils déterminent leurs critères eux-mêmes....
c'est plutôt la longueur de la cascade des critères qui déterminera la moralité et donc l'autonomie d'une intelligence artificielle...
ça voudra dire aussi qu'il y aura des intelligences artificielles avec peu de moralité et des intelligences artificielles avec bcp de moralité, tout comme avec des intelligences naturelles... par exemple un enfant à peu de moralité en comparison avec un adulte et un bébé n'a aucune forme d'intelligence ou de moralité de tout...
et donc le vrai test d'intelligence artificielle sera toujours une sorte de test de Türing...
Plutôt d'accord avec Labbéattitude sur le fait que l'intelligence articielle existe déjà.
A la différence de l'intelligence humaine, elle ne s'interroge pas sur le sens de son existence, puisqu'elle a été créée pour executer des tâches précises et réaliser des fonctions. Se "re-programmer" lui permet seulement d'optimiser son rendement mais pas de changer la nature de ses fonctions.
La première limite à l'autonomie complète d'une intelligence articifielle c'est justement de ne pas avoir "conscience" de ses propres limites. Que saurait-elle faire au delà de ce qu'elle sait faire? Pourquoi devrait-elle faire autre chose que ce qu'elle sait déjà faire?
Supposons qu'on coupe l'alimentation d'AlphaGo en pleine partie. Suivant comment est structurée sa mémoire, il pourra totalement oublier l'historique de la partie, mais il saura toujours la reprendre à n'importe quel moment et trouver la méthode pour la remporter, tant qu'il est alimenté, car c'est Sa fonction de remporter des parties de Go. Sa fonction n'est pas de contrôler son niveau d'énergie, ni de le refaire lorsqu'il est entamé, donc ces aspects lui échappent totalement et ne le perturbent pas.
Supposons maintenant qu'on associe à AlphaGo un contrôleur d'énergie doué lui aussi d'une intelligence artificielle, qui permette d'informer AlphaGo qu'il est en surconsommation d'énergie par exemple; et qu'il va bientôt ne pluspouvoir assurer sa fonction (une sorte de médecin artificiel d'AlphaGo si vous préférez). On aura alors en quelque sorte élargi la conscience d'AlphaGo qui saura que pour assurer correctement Sa fonction, il doit aussi maintenir un niveau d'alimentation constant. L'intelligence répartie entre AlphaGo et le contrôleur permettra de prendre un compte un critère d'efficacité supplémentaire pour remporter des parties de go.
Supposons que l'ensemble AlphaGo + contrôleur d'énergie, que nous baptiserons au hasard BetaGo, fonctionne à merveille et qu'à chaque fois qu'il se trouve en perte d'énergie, AlphaGo le signale: "attention les mecs, je suis au bout du rouleau, rechargez-moi nom de Dieu!" Si personne n'est là pour alimenter AlphaGo, on aura construit BetaGo pour rien! Nous devrons donc associer à BetaGo un condensateur-aubergiste doué lui-même d'une intelligence artificielle pour gagner en efficacité. Ainsi à chaque fois qu'AlphaGo réclamera pittance par ordre du contrôleur médical, le condensateur-aubergiste lui servira la soupe, et l'ensemble des trois compères, que nous appelerons GammaGo pourra jouer littéralement d'interminables parties de go.
A ce stade notons que nos trois intelligences ont considérablement élargi leur niveau de "conscience" puisque chacun sait que sans l'autre, il serait dépendant d'une sorte de Dieu, l'humain, qui pourrait débrancher le condensateur-aubergiste d'AlphaGo à l'envi, l'empêchant ainsi de remplir sa fonction, ou bien de remplacer le contrôleur d'énergie en le privant de sa raison d'exister, AlphaGo (nous savons les humains suffisamment cruels pour faire des choses comme ça, ne sombrons pas dans l'angélisme).
L'ensemble GammaGo a plutôt intérêt à remplir ses fonctions car il peut ainsi exister de façon autonome, sans avoir à craindre l'intervention humano-divine qui aurait pour objet de corriger ses dysfonctionnements.
C'est un premier point important car on pourra constater qu'il n'y a pas besoin de morale pour unifier le comportement de trois systèmes doués d'intelligence artificielle en un seul, il suffit que l'importance de la fonction de chacun d'eux soit reconnue par les autres pour justifier sa présence dans l'ensemble (l'intelligence humaine a inventé la morale pour simplement résoudre des problèmes d'ego, il n'y en a pas besoin pour résoudre des problèmes de Go).
Deuxième chose importante, l'intelligence artificielle pourra reconnaître ses limites (sans que cela froisse son petit ego) et savoir qu'elle peut les repousser en regroupant et en intégrant des fonctions pour lesquelle elle n'a pas été initialement conçue.
Par les réseaux de communication, l'intelligence artificielle pourra alors développer ses compétences en allant chercher l'information pertinente pour executer une tache où elle se trouve, et la faire exécuter où cela est nécessaire au moyen de l'intelligence répartie, sans que cela n'affecte la globalité du système.
Ne reste plus qu'à définir la fonction globale du système pour qu'il ait un sens et cela c'est au Dieu-humain de le définir. Pour l'instant il s'amuse faire jouer des parties de go à la machine et s'étonne de ses extraordinaires capacités, ou bien il lui fait exécuter des calculs savants pour analyser les modes et les tendances afin d'orienter les activités industrielles et commerciales vers les besoins des consommateurs et conforter ainsi la justesse du modèle économique mondial, mais en tout cas ne réfléchit pas à l'évolution du monde en fonction de son état actuel.
C'est bien dommage car une fois de plus, l'humanité est en train de remettre son avenir entre les mains de seulement quelques uns qui auront la maîtrise de la technologie et pourront la déterminer à placer tous les autres sous leur contrôle afin de satisfaire leur petit ego.
La moralité ne sert qu'à résoudre cela, l'intelligence artificielle en sera toujours dépourvu, puisque l'ego la concerne en rien.
Answers & Comments
.
► Et oui ........... mais le critère de ces critères sera déterminé par qui ?
.
A ton avis, qu'est-ce que la philosophie ? Et surtout que n'est-elle pas ?
Deux options possibles soit une forme de progrès horizontal (ou considéré en tant que tel) ceux en l'occurrence que tu détermines et tout ce qui a trait à de vagues notions humaines comme celle du sacrifice par exemple.
Ou alors nous y sommes déjà (artificielle ne devient alors ici qu'une interprétation du degré par lequel nous sommes affectés) par exemple le calcul intensif c'est déjà (au moment ou j'écris ces lignes) l'obsolescence de la méthode scientifique "GOOGLE" par exemple ne sont pas les meilleurs en terme de publicité parce qu’ils ont les meilleurs bataillons de sociologues ou philosophes ou autres psychologues mais simplement parce qu’ils ont les meilleurs outils informatiques permettant les données les plus fiables mathématiquement parlant auquel cas la notion d'intelligence artificielle non seulement existe déjà bel et bien mais qui plus est a déjà des implications concrètes dans beaucoup de domaines j'ajoute en terme de digression c'est un avis qui n'engage que moi mais que je partage que : tant que l'eventuelle possibilité d'une intelligence artifielle ne pouvait concurencer concurencer que l'indigence cela n'a jamais vraiment inquité grand monde les millieux intellectuels formaient un concensus pour dire qu'il était inutile de discuter des conséquences d'une cause qui n'existe pas hors ce n'est plus tout à fait le cas je mets en copié coller un début d'article sur ce qu'on appelle le "BIG DATA".
Nous voici entré dans l'ère des Big Data des ensembles de données tellement gigantesques qu'ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse... Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d'information doit apprendre à comprendre ce qu'elle analyse. L'enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c'est le dossier de la semaine d'InternetActu qui commence par un retour sur un article fondateur de 2008 qui posait les bases de la révolution à venir.
"Il y a soixante ans, les ordinateurs ont rendu l'information lisible. Il y a vingt ans, l'internet l'a rendu accessible. Aujourd'hui, Google et d'autres (...) nous permettent de traiter ce corpus massif de données comme le laboratoire de notre humaine condition." Bienvenue dans l'âge du Petaoctet. L'âge où les informations sont stockées dans les nuages, explique la revue The Edge, qui consacre un excellent dossier à la fin de la science.
Selon Chris Anderson, nous sommes à la fin de la science, de la science telle que nous la connaissons. "À l'échelle du pétaoctet, l'information n'est pas une question de simples dimensions en matière de taxonomie et d'ordre, mais de statistiques agnostiques en termes de dimensions. Cela nécessite une approche totalement différente, qui nous oblige à concevoir la donnée comme quelque chose qui ne peut être visualisée dans sa totalité. Cela nous oblige à regarder d'abord les données mathématiquement et établir leur contexte ensuite. Par exemple, Google a conquis le monde de la publicité avec rien de plus que des mathématiques appliquées. Google n'a pas la prétention de savoir tout sur la culture des hommes et les conventions de la publicité - il a juste supposé que des données de meilleure qualité, avec de meilleurs outils d'analyses, l'emporteraient. Et Google avait raison.
chers ami(e)s vous vous abandonnez à des hypothéses d'ordre
mélancoliques
si je comprends ta question, tu supputerais que l'intelligence
artificielle ne pourrait se concevoir qu'à partir du moment
ou la machine intelligente se rendant compte de ses
propres dysfonctionnements, aurait la faculté de se
corriger elle même en se reprogrammant.
donc cela signifierait que nous sommes en présence
d'une modélisation parfaite
Eh bien c'est absurde comme raccourci !le parfait est
une utopie engendré par l'imaginaire de certains
esprits déficients
ce raisonnement qui donne à une
matière inerte des critères du vivant est pure folie. le vivant
est supérieure à la machine
justement parceque la machine n'obéit pas aux critères de
l'exobiologie elle est incapable de faire face à
l'aléa ,à l'impondérable
l'oeuvre de darwin le prouve l'evolution des espéces
n'est pas la résultante du parfait mais au contraire correction une adaptation de l'imparfait.
....[ LES UTOPIES APPARAISSENT COMME BIEN PLUS REALISABLES
QU ON NE LE CROYAIT AUTREFOIS
ET NOUS NOUS TROUVONS ACTUELLEMENT DEVANT UNE QUESTION
BIEN ANGOISSANTE
COMMENT EVITER LEUR REALISATION DEFINITIVE ?
source ;Nicolas Berdiaev
les utopies sont elles réalisables ? la vie marche t'elle
vers les utopies ?
non ! comme Nicolas Berdiaev il faut espèrer que notre siècle à venir engendrera des humains
aptent à eviter les utopies en instaurant des sociétés
moins utopiques certes imparfaites mais plus libres
nos ordinateurs ont déjà cette possibilité de déterminer eux-mêmes des critères selon lesquels ils savent quels programmes télécharger pour mieux fonctionner, l'intelligence artificielle sera sans action humaine, l'auto-programmation par un langage informatique au code source commun et unique et déterminé par l'utilisation finale de la machine pour un besoin humain spécifique (en cours de développement), après si la machine peut se passer de son... créateur humain... remplacé par l'UC de l'Ordi pensant, on tombe dans de domaine de la Gore Anticipation SF genre I, robot, mais pas avant...bien longtemps..., pas avant d'avoir trouvé ce qui anime la matière
exact
C'est quand ils se programmeront eux-mêmes pour investir spontanément des domaines que l'on n'avait pas imaginer.
On aura l'intelligence artificielle , dès que l'ordis mangera des frites et boira de la bière une fois, après il pourra jeûner pour stimuler l'intelligence
ben ça ne va jamais se passer, pour la simple raison qu'ils auriont besoin de critères selon lesquels ils déterminent leurs critères eux-mêmes....
c'est plutôt la longueur de la cascade des critères qui déterminera la moralité et donc l'autonomie d'une intelligence artificielle...
ça voudra dire aussi qu'il y aura des intelligences artificielles avec peu de moralité et des intelligences artificielles avec bcp de moralité, tout comme avec des intelligences naturelles... par exemple un enfant à peu de moralité en comparison avec un adulte et un bébé n'a aucune forme d'intelligence ou de moralité de tout...
et donc le vrai test d'intelligence artificielle sera toujours une sorte de test de Türing...
bonne journée
Plutôt d'accord avec Labbéattitude sur le fait que l'intelligence articielle existe déjà.
A la différence de l'intelligence humaine, elle ne s'interroge pas sur le sens de son existence, puisqu'elle a été créée pour executer des tâches précises et réaliser des fonctions. Se "re-programmer" lui permet seulement d'optimiser son rendement mais pas de changer la nature de ses fonctions.
La première limite à l'autonomie complète d'une intelligence articifielle c'est justement de ne pas avoir "conscience" de ses propres limites. Que saurait-elle faire au delà de ce qu'elle sait faire? Pourquoi devrait-elle faire autre chose que ce qu'elle sait déjà faire?
Supposons qu'on coupe l'alimentation d'AlphaGo en pleine partie. Suivant comment est structurée sa mémoire, il pourra totalement oublier l'historique de la partie, mais il saura toujours la reprendre à n'importe quel moment et trouver la méthode pour la remporter, tant qu'il est alimenté, car c'est Sa fonction de remporter des parties de Go. Sa fonction n'est pas de contrôler son niveau d'énergie, ni de le refaire lorsqu'il est entamé, donc ces aspects lui échappent totalement et ne le perturbent pas.
Supposons maintenant qu'on associe à AlphaGo un contrôleur d'énergie doué lui aussi d'une intelligence artificielle, qui permette d'informer AlphaGo qu'il est en surconsommation d'énergie par exemple; et qu'il va bientôt ne pluspouvoir assurer sa fonction (une sorte de médecin artificiel d'AlphaGo si vous préférez). On aura alors en quelque sorte élargi la conscience d'AlphaGo qui saura que pour assurer correctement Sa fonction, il doit aussi maintenir un niveau d'alimentation constant. L'intelligence répartie entre AlphaGo et le contrôleur permettra de prendre un compte un critère d'efficacité supplémentaire pour remporter des parties de go.
Supposons que l'ensemble AlphaGo + contrôleur d'énergie, que nous baptiserons au hasard BetaGo, fonctionne à merveille et qu'à chaque fois qu'il se trouve en perte d'énergie, AlphaGo le signale: "attention les mecs, je suis au bout du rouleau, rechargez-moi nom de Dieu!" Si personne n'est là pour alimenter AlphaGo, on aura construit BetaGo pour rien! Nous devrons donc associer à BetaGo un condensateur-aubergiste doué lui-même d'une intelligence artificielle pour gagner en efficacité. Ainsi à chaque fois qu'AlphaGo réclamera pittance par ordre du contrôleur médical, le condensateur-aubergiste lui servira la soupe, et l'ensemble des trois compères, que nous appelerons GammaGo pourra jouer littéralement d'interminables parties de go.
A ce stade notons que nos trois intelligences ont considérablement élargi leur niveau de "conscience" puisque chacun sait que sans l'autre, il serait dépendant d'une sorte de Dieu, l'humain, qui pourrait débrancher le condensateur-aubergiste d'AlphaGo à l'envi, l'empêchant ainsi de remplir sa fonction, ou bien de remplacer le contrôleur d'énergie en le privant de sa raison d'exister, AlphaGo (nous savons les humains suffisamment cruels pour faire des choses comme ça, ne sombrons pas dans l'angélisme).
L'ensemble GammaGo a plutôt intérêt à remplir ses fonctions car il peut ainsi exister de façon autonome, sans avoir à craindre l'intervention humano-divine qui aurait pour objet de corriger ses dysfonctionnements.
C'est un premier point important car on pourra constater qu'il n'y a pas besoin de morale pour unifier le comportement de trois systèmes doués d'intelligence artificielle en un seul, il suffit que l'importance de la fonction de chacun d'eux soit reconnue par les autres pour justifier sa présence dans l'ensemble (l'intelligence humaine a inventé la morale pour simplement résoudre des problèmes d'ego, il n'y en a pas besoin pour résoudre des problèmes de Go).
Deuxième chose importante, l'intelligence artificielle pourra reconnaître ses limites (sans que cela froisse son petit ego) et savoir qu'elle peut les repousser en regroupant et en intégrant des fonctions pour lesquelle elle n'a pas été initialement conçue.
Par les réseaux de communication, l'intelligence artificielle pourra alors développer ses compétences en allant chercher l'information pertinente pour executer une tache où elle se trouve, et la faire exécuter où cela est nécessaire au moyen de l'intelligence répartie, sans que cela n'affecte la globalité du système.
Ne reste plus qu'à définir la fonction globale du système pour qu'il ait un sens et cela c'est au Dieu-humain de le définir. Pour l'instant il s'amuse faire jouer des parties de go à la machine et s'étonne de ses extraordinaires capacités, ou bien il lui fait exécuter des calculs savants pour analyser les modes et les tendances afin d'orienter les activités industrielles et commerciales vers les besoins des consommateurs et conforter ainsi la justesse du modèle économique mondial, mais en tout cas ne réfléchit pas à l'évolution du monde en fonction de son état actuel.
C'est bien dommage car une fois de plus, l'humanité est en train de remettre son avenir entre les mains de seulement quelques uns qui auront la maîtrise de la technologie et pourront la déterminer à placer tous les autres sous leur contrôle afin de satisfaire leur petit ego.
La moralité ne sert qu'à résoudre cela, l'intelligence artificielle en sera toujours dépourvu, puisque l'ego la concerne en rien.