Le Principe de l’Auto-Simulation de la Réalité : la réalité est une auto-simulation

par Christopher Michael Langan, © 2020

« Derrière tout cela se trouve sûrement une idée si simple, si belle, que lorsque nous la saisirons – dans une décennie, un siècle, ou un millénaire – nous nous dirons tous, comment aurait-il pu en être autrement ? » (Wheeler, J. A., 1986, p. 304)

Abstract : L’Hypothèse de la Simulation est la conjecture largement discutée selon laquelle nous habitons une réalité directement vécue mais néanmoins artificielle qui, tout en soutenant la conscience et la perception humaines, est produite et affichée par un système hôte occupant une réalité de niveau supérieur, invisible depuis le niveau inférieur. La réalité est ainsi implicitement définie comme ayant au moins deux niveaux, celui dans lequel nous semblons exister, et un autre associé au système hôte. Comme le terme « réalité » n’est pas défini au-delà de cette relation hypothétique, l’Hypothèse de la Simulation est indifférente aux détails, par exemple, où se trouve le système hôte, comment fonctionne le système hôte, qui ou quoi a créé et/ou contrôle le système hôte, et en quoi la simulation ressemble à la réalité supérieure qui la contient. Mais dans tous les cas, il doit y avoir une réalité ultime tout-englobante ou un « état fondamental ontique » qui contient et soutient toutes les simulations de réalité qui pourraient exister, et il est naturel de se demander si certains aspects du concept de simulation peuvent s’y appliquer. Le Principe d’Auto-Simulation de la Réalité stipule que la réalité ultime est elle-même une auto-simulation réflexive naturelle dans laquelle tous les niveaux intelligibles de la réalité doivent exister, qu’ils soient simulés ou non. Là où la réalité ultime est un opérateur global d’auto-identification configuré comme le Système Métaformel CTMU (Langan, 2018), c’est-à-dire le langage d’identité de la réalité intelligible, l’Auto-Simulation de la Réalité (RSS) peut être identifiée avec le Modèle Théorique-Cognitif de l’Univers (CTMU ; Langan, 2002), qui décrit ainsi la réalité comme un opérateur d’identité auto-simulant R*:RINT|REXT et détaille sa structure et sa dynamique, montrant qu’elle possède sa propre forme universelle de conscience (capacité cohérente d’auto-identification et d’auto-modélisation), une ontologie quantique inébranlable et un nouveau paradigme pour l’auto-organisation et l’émergence.

Mots-clés : Simulation ; Auto-Simulation ; Théorie de l’Auto-Simulation ; Principe de l’Auto-Simulation ; Hypothèse de l’Auto-Simulation ; Auto-Simulation de la Réalité ; Modèle Théorique Cognitif de l’Univers ; CTMU ; Système Métaformel

I. Introduction

Dans les domaines de la science et de la technologie ainsi que dans la culture populaire, la simulation est omniprésente. Une grande variété de processus sont désormais simulés par ordinateur à des fins allant du divertissement et de l’exploration scientifique à la planification urbaine, à la conception de médicaments, ainsi qu’à la formation au vol militaire et commercial. De nos jours, de nombreuses personnes apparemment saines les regardent même avec méfiance et se demandent si la réalité elle-même pourrait être une simulation dans laquelle elles auraient été piégées d’une manière ou d’une autre, et si tel est le cas, s’il y a une possibilité d’évasion.

Par définition, une simulation est un modèle ou une imitation d’une situation ou d’un processus réel qui trompe un observateur en lui faisant croire qu’il est réel, sous réserve d’une suspension limitée du jugement. Autrement dit, elle est suffisamment similaire au système ou au processus original pour être « réaliste » tout en différant de celui-ci à certains égards, de préférence pas trop nombreux pour ne pas détruire l’illusion. Mais lorsque le concept de simulation est poussé à la limite globale – lorsqu’on envisage la simulation de la réalité dans son ensemble – l’illusion prend une signification complètement nouvelle, convergeant vers des limites sensorielles et épistémologiques fondamentales.

Lorsque c’est l’univers entier qui est simulé, des complexités étranges et des simplifications inattendues peuvent apparaître. Par exemple, bien que la simulation doive différer de la réalité vraie pour maintenir son artificialité définitive, elle doit idéalement être indistinguable de la réalité authentique pour ses habitants. En ce sens, « réalité artificiellement simulée » est un oxymore ; une réalité artificiellement simulée « réaliste » (convaincante) doit être suffisamment réelle pour que ses observateurs résidents la considèrent comme authentique malgré tout. Pourtant, dans la mesure où toute réalité simulée est incorporée dans tous les niveaux de réalité supérieurs, il peut encore être possible de discerner la réalité ultime à l’intérieur de celle-ci.

II. L’Hypothèse de la Simulation

L’« Hypothèse de la Simulation » ou « théorie de la simulation » est une hypothèse relativement nouvelle aux racines anciennes, une modernisation de l’ancienne idée selon laquelle le monde physique n’est qu’une représentation perceptuelle d’un niveau plus profond de réalité. Elle postule que nous habitons un système artificiel, par exemple, une simulation programmée et fonctionnant sur un ordinateur ou un autre dispositif numérique avancé, éventuellement supervisé par une intelligence supérieure (Dieu, le diable, des extraterrestres, des post-humains, etc.). Certaines variantes impliquent la prise en compte de la manière et du moment où la capacité technologique de simulation de la réalité évolue ou émerge de la réalité de base, ainsi que l’attribution de probabilités aux possibilités associées.

Dans la tradition philosophique occidentale, l’hypothèse de la simulation peut être retracée à travers le « malin génie » de René Descartes (Descartes, R., 1996), qu’il décrit comme présentant « une illusion complète d’un monde extérieur … conçue pour tromper mon jugement », jusqu’à l’Allégorie de la Caverne de Platon (Platon, n.d.) et au-delà. Dans la tradition orientale, elle est anticipée dans certaines tendances de la philosophie et de la littérature védiques et bouddhistes. Mais peut-être que la première application technique de la version moderne de l’Hypothèse de la Simulation à un problème philosophique majeur apparaît dans l’article « La Résolution du Paradoxe de Newcomb » (Langan, 1989), qui présente un simulateur de réalité capable de simuler les aspects déterministes et non déterministes des processus réels, y compris la volition et la cognition, dans un scénario de théorie des décisions autrement paradoxal.

En plus de l’hypothèse de simulation, il existe un trilemme connexe avec lequel elle peut parfois être confondue. Ce trilemme, appelé « Argument de la simulation », s’exprime comme suit :

« Au moins l’une des propositions suivantes est vraie : (1) L’espèce humaine est très probablement destinée à s’éteindre avant d’atteindre un stade ‘posthumain’ ; (2) Toute civilisation posthumaine a très peu de chances d’effectuer un nombre significatif de simulations de son histoire évolutive (ou de variations de celle-ci) ; et (3) Nous vivons presque certainement dans une simulation informatique. » (Bostrom, 2003)

Tandis que l’Hypothèse de la Simulation affirme de manière directe que nous vivons dans une réalité artificiellement simulée (sous réserve de preuve), l’Argument de la Simulation concerne la probabilité de vivre dans une réalité artificiellement simulée dans des circonstances évolutives spécifiques impliquant des hypothèses techniques implicites. Selon Bostrom (2008), « on peut accepter l’argument de la simulation et rejeter l’hypothèse de la simulation. » Ainsi, l’Hypothèse et l’Argument ne doivent pas être confondus.

Cependant, l’Hypothèse et l’Argument partagent quelque chose en commun : les deux concernent des simulations de réalité artificielle, et sont donc distingués de la vraie réalité (non simulée artificiellement) ou de la réalité ultime dans laquelle ils sont implicitement supposés exister. Cela soulève une paire de questions. Une question est ontologique, concernant la relation entre la vraie réalité et la pseudo-réalité artificiellement simulée, tandis que l’autre question est épistémologique, concernant la possibilité et les moyens de distinguer l’une de l’autre.

Comment la vraie réalité et la simulation artificielle diffèrent-elles et, le cas échéant, qu’ont-elles en commun ?

Les habitants d’une simulation artificielle peuvent-ils la distinguer de la vraie réalité et vice versa (c’est-à-dire, les êtres humains physiquement incarnés peuvent-ils distinguer la vraie réalité qu’ils habitent d’une artificielle) ?

Pour répondre à l’une de ces questions ou aux deux, il semble que nous ayons besoin d’une définition solide de la « vraie réalité », qui implique dans une certaine mesure une théorie vérifiable de la réalité. Cette « théorie de la réalité » doit contenir les distinctions requises et un moyen fiable de les appliquer.

III. Formuler succinctement la simulation

Tout d’abord, voyons si nous pouvons trouver une manière simple d’envisager les simulations telles qu’elles sont habituellement conçues. Une simulation, étant définie comme l’imitation ou l’image d’une situation ou d’un processus, est une transformation d’entrée-sortie qui convertit la situation ou le processus en une image plus ou moins fidèle de celui-ci.

En d’autres termes, une simulation est une sorte de cartographie, que nous pouvons écrire comme

« Sim : entrée R sortie ». (E.1)

où « Sim » représente un opérateur de cartographie simulante ou un processeur naturel ou artificiel qui fonctionne selon un programme sur la base des entrées provenant d’une combinaison de sources internes et externes. La sortie, composée des images des données d’entrée sous la cartographie, « simule » l’entrée dans la mesure où elle ressemble à l’entrée ou partage ses propriétés. (À ce stade de simplification, les observateurs et programmeurs pour lesquels l’entrée est « simulée », et par lesquels la ressemblance sera jugée, sont implicites.)

De manière équivalente, une simulation de réalité peut être exprimée comme suit :

Entrée R processeur R sortie (E.2)

Autrement dit, une simulation se produit lorsqu’un processeur « modélise » l’entrée en tant que sortie. Basiquement, le processeur (simulateur, système hôte) exécute un programme qui est un modèle d’un système source (un système réel ou abstrait à simuler, dont un modèle, une représentation ou un équivalent formel a été programmé dans le processeur). De nombreux programmes informatiques apparemment ordinaires contiennent des modèles cachés de systèmes et de processus réels ou artificiels, activés lorsque le programme est exécuté, générant un « minivers simulé » les instanciant sur les données d’entrée de l’utilisateur. Dans l’hypothèse standard de la simulation, le système hôte (un ensemble processeur-affichage connecté) est un ordinateur programmé avec un modèle du système source, où le système source peut exister seulement formellement dans le modèle lui-même. Dans tous les cas, le système hôte est supposé être une machine intégrée dans un niveau de réalité supérieur et « plus vrai » dont la simulation dévie d’une manière ou d’une autre, pour le meilleur ou pour le pire (sinon cela serait inutile).

Simuler X, c’est fournir des instances pour une description formelle caractéristique et invariante de X qui reste inchangée par rapport aux variations parmi les instances possibles. Les instances « trompent l’observateur » en supplantant une description formelle générique, le modèle de X, par des instances spécifiques, imitant physiquement les propriétés mentales et les motifs formels de ce dernier. Seules les instances, et non la programmation, sont visibles à l’intérieur de la simulation (dans l’« affichage »). La nature subjective des modèles, des programmes et des propriétés formelles est cachée, soit dans un processeur externe, soit profondément au sein de l’observateur lui-même.

Lorsque X = réalité, la simulation est une simulation de la réalité. Lorsque le processeur est artificiel – par exemple, une construction mécanique ou électronique – la simulation de la réalité est artificielle ; lorsque le processeur est naturel (sans construction artificielle), la simulation de la réalité est naturelle et peut être considérée comme une partie de la nature ou de la réalité elle-même. Si elle peut être considérée comme une simulation, il s’agit d’une auto-simulation de, par et pour la nature elle-même.

Les simulations réelles de la réalité existent dans la réalité et peuvent en principe être « imbriquées » dans des simulations de simulations … de simulations. Ainsi, nous avons le diagramme suivant :

(1) Réalité Ultime R [sous-réalités imbriquées] R (2) système source (à simuler) R (3) système hôte avec modèle du système source R (4) système cible affiché (E.3)

La structure relationnelle universelle de la réalité est syndifféonique. Une relation syndifféonique consiste en deux niveaux, l’un synétique et singulier et l’autre difféonique et (habituellement) pluriel. Le niveau synétique se distribue sur le niveau difféonique, fournissant ainsi aux relata difféoniques (individuellement discernables) une base pour la cohérence cognitive ou perceptuelle. En d’autres termes, chaque fois qu’on perçoit ou conçoit de nombreuses choses simultanément, c’est en vertu du fait qu’elles partagent une propriété synétique commune : elles sont concevables ou perceptibles (et possèdent d’autres propriétés plus spécifiques pour les distinguer). Cette propriété se rapporte à la capacité de discerner les relata, c’est-à-dire la capacité de les distinguer tout en les voyant néanmoins tous en même temps. La syndifféonèse est clairement présente dans chaque propriété ou attribut avec plusieurs objets, instances ou valeurs, et dans chaque objet qui présente plusieurs propriétés ou attributs. Chaque relation, même une simple relation d’identité, est syndifféonique ; une propriété associée au symbole relationnel se distribue sur ce qui se trouve de part et d’autre de celui-ci.

La réalité ultime (véritable, de base) se réfère à un niveau de réalité qui est parfaitement auto-contenu ; elle doit se conformer au Système Métaformel CTMU, qui distribue une « propriété d’intelligibilité » synétique ou une syntaxe universelle d’identification – une forme universelle distribuée sans instance, sémantiquement non contrainte ou UDF [NDT : Universal Distributed Form], supportant et contraignant toutes les entrées reconnaissables possibles – sur ses instances localisées (sémantiquement contraintes) au sein d’une identité syndifféonique universelle, fournissant ainsi à elle-même la cohérence interne qui permet aux états contraints d’être assemblés de manière cohérente dans la construction de processeurs artificiels. *(Bien que chaque simulation de la réalité soit en un sens « la réalité ultime se simulant elle-même », sa sortie affichée est extensionnelle et localisée à des endroits ou des régions particulières au sein d’un support d’affichage qui peut, si elle est artificielle, être localisée au sein de la réalité ultime et ainsi incapable d’afficher la réalité ultime dans son entièreté. Cette localisation implique qu’il existe un niveau externe supérieur de réalité dont elle dépend, impliquant qu’elle n’est pas auto-contenue et est donc non ultime.) Les sous-réalités imbriquées sont des simulations de la réalité dans des simulations de la réalité dans… dans la réalité ultime.

Les systèmes hôtes simulent les systèmes hôtes de toutes les simulations de niveau inférieur (imbriquées) qui y sont exécutées. Les systèmes hôtes peuvent donc être décrits comme « émulant intérieurement » les systèmes hôtes des simulations de niveau inférieur.

Nous pouvons maintenant affiner les étapes 2 à 4 du diagramme ci-dessus. Tout d’abord, notez que la cible de toute cartographie préservant la structure « simule » la source, c’est-à-dire que l’homomorphisme m:x R y simule x avec y. Nous pouvons ainsi définir une simulation comme une composition itérative de cartographies de transformation d’état préservant la structure, habituellement exécutée par un processeur P programmé avec un modèle interne MX d’un système spécifique X à simuler par des états simulés successifs (marqués d’une apostrophe) X’ = {X0’, X1’, X2’, …} sur une entrée consistant en un état initial X0‘, où les états simulés indexés par le temps XT’ du système simulé X sont affichés dans un affichage D au temps T (le moment présent), progressant étape par étape, état par état, et changement par changement :

P(MX, XT’) : D(XT=n’) R D(XT=n+1’) (E.4)

En langage simple : le processeur P, opérant sur un modèle Mx du système X à simuler et un état simulé XT‘ au temps T dans l’affichage D, transforme l’état d’entrée XT=n’ au temps T=n dans D en l’état de sortie D(XT=n+1’) au temps T=n+1 dans D. (Notez que cette cartographie est une boucle ; où n représente « maintenant », n+1 devient immédiatement n à mesure que le temps avance, la sortie est recyclée comme entrée, et la fonction P s’itère.)

D(Xn’) signifie que l’affichage D affiche (« effectue une opération d’affichage sur ») les états simulés Xn’ du système simulé X’ tels qu’ils lui sont communiqués symboliquement par le processeur P sous forme de langage ou de code. En d’autres termes, P est considéré comme une fonction convertissant une entrée en sortie, et D sert à la fois de domaine et de codomaine. Ni P lui-même ni ses différentes sous-routines et opérations de traitement individuelles ne sont distinguables dans D, et dans la mesure où il détermine le contenu de D, P existe et fonctionne dans une capacité « pré-affichage ».

Dans une auto-simulation, le modèle est une description du processeur et de l’affichage eux-mêmes.

P[M(P,D), (P, D)T’] : D(P, D)T=nR D(P, D)T=n+1’ (E.5)

Ici, « auto-simulation » est interprétée de manière à ce qu’il y ait un affichage réel avec un processeur simulé et un affichage simulé comme contenu.

Mais alternativement, puisque le processeur contient un modèle à la fois de lui-même et de l’affichage, et pourrait simplement mettre à jour son modèle interne, tout pourrait être à l’intérieur du processeur. Lorsque la simulation est confinée à P, nous avons :

P[M(P,D), (P, D)T’] : (P, D)T=nR (P, D)T=n+1’ (E.6)

ou simpelment

P[M(P,D), M(P,D)T] : M(P,D)T=n R M(P,D)T=n+1 (E.7)

avec le processeur exécutant en interne son « programme d’auto-modélisation ».

En bref, bien que nous ne puissions pas mettre P dans D – un processeur peut traiter des états, mais un affichage ne peut pas afficher le traitement – nous pouvons mettre D dans P à condition que P alterne entre les fonctions de traitement et d’affichage. Cela revient à placer à la fois P et D dans l’élément auto-dual de traitement-affichage P, évitant ainsi le dualisme P-D (temps-espace). P alterne simplement entre les étapes d’affichage et de traitement, ou entre état et transition d’état. Dans tous les cas, comme nous l’expliquons dans la section suivante, les fonctions de traitement et d’affichage sont fondamentalement incompatibles ; au mieux, elles peuvent alterner au sein d’opérateurs à fonction-duale gérant les deux tâches. L’étape de traitement est distincte de l’étape d’affichage, qu’elle soit externe ou interne à P.

D, étant incapable d’afficher les intervalles de traitement, affiche simplement la sortie de P avec des interpolations rétrodictives entre les états. (Physiquement, c’est ainsi que nous observons l’« affichage » que nous appelons l’espace-temps ; tout traitement est rétrodicté à partir de l’état actuel.) Comme D n’affecte pas la sortie qu’il reçoit de P, P peut simplement ignorer D ainsi que le reste de sa boucle sortie-entrée (qui, dans ce cas, n’est pas externe mais câblée ou simulée au sein de P). P émule donc en interne son propre état initial PT’.

Cela fait de P sa propre fonction de cartographie ou de transition d’état P : PnR Pn+1’. P n’a même pas besoin de produire de sortie réelle ; tout reste interne. Seule l’état interne de P change réellement ; aucun changement n’est visible de l’extérieur (c’est-à-dire qu’aucun signal de sortie ou d’entrée externe n’est présent sur les fils externes qui le connectent à un affichage externe). Nous obtenons donc immédiatement

P(MP, PT’) : PT=nR PT=n+1’ (E.8)

où les PT’ sont les états auto-simulés de P lui-même.

Une simulation de réalité est simplement une simulation dans laquelle le système modélisé est qualifié de « réalité » en fonction des critères qui peuvent être associés à ce terme. (Les gens ne s’accordent souvent pas sur la manière dont la réalité devrait être définie, donc ses critères définitifs varient considérablement.) Un critère couramment utilisé : il doit être suffisamment réaliste, ou fidèle aux attentes que l’on a de ce que devrait être la réalité – par exemple, immersif, réplicable et logiquement cohérent – pour convaincre un observateur. (Cependant, il ne faut pas se leurrer sur ce qu’il faut réellement pour que ce critère « anthropique » soit rempli.)

Un cas plus intéressant est celui où la réalité se simule elle-même. Dans une auto-simulation de la réalité, la réalité est auto-contenue, intégrant de manière réflexive ses propres fonctions de traitement et d’affichage. En effet, la réalité devient son propre processeur et affichage, réduisant la « simulation » à la réalité elle-même (Langan, 2002). Cette situation peut être exprimée en remplaçant simplement le processeur dans E.8 par la réalité :

R(MR, RT) : RT=n R RT=n+1 , (E.9)

où R est la réalité, MR est un auto-modèle de la réalité, et les RT sont les états dépendants du temps de R (les apostrophes sont désormais superflues, car les états ne sont plus confinés à une machinerie artificielle mais appartiennent à la réalité elle-même). C’est-à-dire que la réalité R exécute un programme d’auto-modélisation MR sur un état donné RT, « simulant » ainsi la structure et l’évolution dynamique de R.

Où la télèse est une généralisation convergente de l’intension et de l’extension coïncidant avec l’état fondamental ontique, et R* est un opérateur d’identité télique ultime (auto-contenu, auto-définissant, ontiquement fermé) qui couple (et, de manière duale, sépare en) ses propres aspects intensifs et extensifs, une auto-simulation de la réalité peut simplement être écrite

R*: RINT LR REXT (E.10)

où les indices signifient respectivement intensionnel et extensionnel. Dans ce contexte, intensionnel signifie « de type processeur/modèle/programme », tandis qu’extensif signifie « de type affichage ». Comme R* est un opérateur d’identité ontique ou d’identité télique auto-duale irréductible, l’intension et l’extension sont codépendantes, et une flèche à deux têtes est requise

IV. L’Auto-Simulation Réalité

La réalité et la simulation ont des significations presque opposées ; l’une est réelle et l’autre est contrefaite. Il est donc approprié de se demander si l’expression « Auto-Simulation de la Réalité » a un sens.

Lorsqu’un système produit et affiche son propre contenu, se pose la question de savoir s’il peut encore être décrit comme une « simulation » réflexive. Le fait qu’il conserve ou non la structure et la fonctionnalité d’une simulation dépend de la mesure dans laquelle il soutient intrinsèquement les distinctions sur lesquelles la simulation est définie, notamment la distinction entre les aspects processeur et affichage du système, ainsi qu’entre le modèle du système et le système lui-même.

Le critère définitif : la réalité est auto-contenue et possède une « étape d’affichage » ou un support extensionnel dans lequel un contenu substantiel est perceptiblement affiché, ainsi qu’une « étape de traitement » intensionnelle qui n’est pas immédiatement affiché, mais qui génère un modèle avancé de son évolution future, transféré à l’étape d’affichage pour actualisation.

Voici les types possibles de « simulation de la réalité » habituellement considérés.

(1) Traitement central – affichage discret (le paradigme de la simulation informatique) : La réalité ressemble à une simulation informatique standard affichée sur l’écran discrètement pixellisé d’un moniteur d’ordinateur, contrôlée par un CPU distant qui planifie l’action à l’écran à l’aide de son horloge centrale.

(2) Traitement central – affichage continu (physique classique, avec processeur et affichage disjoints) : La réalité, composée d’un processeur distinct et d’un affichage continu, se manifeste sur un « écran de moniteur » 3D pixellisé de manière infinitésimale (sub-finie), auquel le processeur est externe mais auquel il est d’une certaine manière connecté.

À l’exception des « pixels » infinitésimaux de l’affichage (comme requis pour la continuité), cette configuration ressemble au cas 1. L’écran d’affichage ressemble à un vide classique ou à un support spatial contenant des observateurs et leur servant d’environnement commun, le temps se réduisant à des impulsions d’horloge distribuées dans tout l’affichage depuis le CPU.

(3) Traitement distribué – affichage discret (modèle d’automate cellulaire / physique numérique) : La réalité est confinée à un affichage fini partitionné ressemblant au tableau discret d’un automate cellulaire. Ses « cellules » sont soit des éléments à double fonction de traitement et d’affichage, soit deux types d’éléments qui sont d’une manière ou d’une autre regroupés sans perturber l’observation. L’affichage est équipé de sa propre horloge pour coordonner l’activité de ses cellules, ou bien les cellules se coordonnent d’une manière ou d’une autre automatiquement. Dans cette configuration, l’affichage évolue par le biais d’instructions distribuées, paramétrées localement et traitées localement, obéissant ainsi à un principe de localité. Ce type de « physique numérique » est censé permettre la réduction de la réalité à l’information, ou à des bits et des opérations computationnelles qui en découlent. Mais parmi ses faiblesses, il y a le fait que le réductionnisme informationnel ne s’applique qu’au contenu de l’affichage ; l’affichage lui-même doit être pris pour acquis en tant que support informationnel. (Langan, 2002; Wolfram, 2002)

(4) Traitement distribué – affichage continu (physique moderne et cosmologie) : Le traitement, et donc l’évolution du système, sont intrinsèques à la géométrie de l’affichage. Le traitement est soit associé à des points de la variété espace-temps (tout comme il est associé aux éléments d’affichage d’un automate cellulaire dans le cas 3), soit les points ont une double fonctionnalité de traitement et d’affichage. Dans les deux cas, les lois de la physique sont distribuées point par point sur la variété espace-temps ou sur une autre variété, éventuellement avec des « dimensions supplémentaires » qui pourraient accueillir un traitement caché. Cela correspond à la tendance de la physique moderne qui confine la réalité à une distribution de matière et d’énergie dans un continuum « physique », la mécanique quantique exigeant des accommodations plus ou moins problématiques.

Dans toutes ces configurations (1-4), les distinctions entre le processeur, l’affichage, le contenu de l’affichage, la programmation et les observateurs conscients sont soit nébuleuses, soit dualistes. Par association, les distinctions entre le temps, l’espace, la matière, la causalité, ainsi que la vie et la conscience le sont également. Au moment où nous atteignons la configuration 4, la relation de la Relativité Générale s’applique à l’espace et au temps, et la relation de la Théorie Quantique des Champs s’applique à la matière et aux champs quantiques (distributions spatiales d’énergie dont les particules élémentaires sont des excitations énergétiques). Mais nous avons toujours la dualité cartésienne esprit-matière, le problème du continuum vs. tableau discret, les déficits causaux associés à l’indétermination quantique, et l’absence apparente de quoi que ce soit maintenant le processeur et l’affichage ensemble.

Pourquoi devrait-il être nécessaire de « maintenir le processeur et l’affichage ensemble » ? La raison, qui sera expliquée plus en détail ci-dessous, est basiquement un dualisme inexorable. Alors que les configurations 1-4 reflètent le physicalisme historique (ou « naturalisme métaphysique ») de la science courante en général, imposant ainsi le confinement de la réalité à l’affichage (où résident les états physiques perceptibles), le traitement est une fonction d’états qui n’est pas accessible à l’affichage. Dans une certaine mesure, le traitement et l’affichage sont des fonctions incompatibles ; le traitement doit être interrompu pour afficher les états qu’il produit. Il en découle que le traitement – la dynamique de la réalité – ne peut pas habiter l’affichage et doit donc résider ailleurs, spécifiquement dans un emplacement attenant à l’affichage et séparé de celui-ci par une interface qui lui permet de recevoir des entrées de l’affichage et de lui transmettre des sorties.

Dans les sciences et au-delà, la réalité est généralement considérée comme confinée à l’espace et au temps, qui sont désormais compris comme étant partout couplés dans un support hybride appelé « espace-temps ». Mais la nature de ce lien n’est pas encore pleinement comprise, et de nombreuses questions demeurent. En particulier, qu’est-ce que le temps, et s’il s’agit d’un processus physique, où se cache-t-il ? La science empirique ne peut pas le dire, car le temps n’est pas empirique – on ne perçoit que ses corrélats, ses états d’entrée et de sortie. Parce que la science tient tant à ce que tout soit « physique » et donc directement observable sous forme d’états dans l’affichage, la structure et la dynamique de la réalité sont obstinément réduites à des ensembles structurés et des séquences temporelles d’états et d’événements de transition d’état visibles dans l’espace – c’est-à-dire à l’affichage et au traitement respectivement – et il est donc supposé que la réalité consiste entièrement en temps et espace comme support conjoint pour la matière, l’énergie et la vie. Mis à part les équations de transformation induites empiriquement, on ne se demande généralement pas ce qui pourrait maintenir l’espace et le temps ensemble.

Bien que chacune de ces configurations (1-4) ait ses propres problèmes, elles doivent toutes accommoder la relation d’exclusion entre traitement et affichage, ou entre temps et espace. Il est parfois soutenu que certaines équations mathématiques, comme les transformations de Lorentz, expliquent la relation entre le temps et l’espace, mais ces subtilités mathématiques sont davantage descriptives qu’explicatives. La perception de l’espace – l’appréhension d’un état – remplace la perception directe des intervalles entre les états. La seule façon de percevoir un intervalle est de le terminer aux deux extrémités, et cela ne peut se faire qu’une fois que le terminus de tête (avancé) est déjà apparu, obligeant ainsi à reconstruire la scène de traitement. Mais en fin de compte, une seule chose est certaine : les états et les transitions d’état virtuellement instantanées sont ce que les supports d’affichage affichent réellement. Évidemment, une fois qu’un support a été strictement défini en fonction de sa capacité à afficher des états (quel que soit le terme utilisé, y compris physicalité, matérialité ou observabilité), ce qui ne peut être affiché ne peut pas habiter le support, et ce qui se passe entre le niveau d’affichage et ce qui ne peut pas être affiché doit se dérouler sous la surface à travers une interface appropriée.

Examinons le problème de plus près. Le traitement d’un état au suivant se produit entre les états – par exemple, pour produire un état s2 de X à partir d’un état précédent s1 de X, un traitement doit avoir lieu entre s1 et s2 dans un intervalle de traitement (de transition d’état) s1s2. Mais l’intervalle de traitement s1s2 ne peut avoir aucune durée et doit donc rester caché, car sinon il y aurait un décalage temporel pendant lequel X n’a pas d’état du tout et tombe ainsi hors du support d’affichage. Ainsi, ce qui est affiché « en temps réel » ce sont des événements de transition d’état instantanés coïncidant avec les états eux-mêmes ; dans l’affichage, le « temps réel » devient discontinu, et la transition d’un état s1 vers son successeur s2 coïncide avec l’affichage de l’état unique s2. Ainsi, le traitement et l’affichage sont nécessairement des fonctions distinctes et doivent s’alterner. L’affichage doit donc être stratifié, avec le focus alternant entre une couche de traitement cachée et une couche d’affichage visible. En d’autres termes, éviter toute perturbation perceptuelle ou observationnelle, requiert que le traitement soit caché afin de ne pas provoquer de discontinuités entre les états affichés. Mais cela contredit l’hypothèse selon laquelle l’affichage « possède à la fois une fonctionnalité de traitement et d’affichage ». Pour le dire aussi succinctement que possible, le traitement n’est pas affiché.

Ceci est parfaitement évident à l’échelle quantique du traitement. Tout d’abord, définissons l’« affichage » comme ce qui est habité par tout et uniquement ce qu’il affiche réellement (nous ignorons pour l’instant la question de savoir si l’affichage requiert une observation, en supposant que la réalité « s’observe elle-même » par l’interaction ou l’« affichage mutuel » de ses contenus). Entre les événements de mesure (transitions d’état) dans l’affichage, les particules de matière existent en tant que fonctions d’onde quantiques contenant des informations sur leurs états, évoluant comme prescrit par l’équation de Schrödinger (Schrödinger, 1926). Mais les fonctions d’onde quantiques ne sont pas affichées, et il en va de même pour les « ondes de probabilité » dont elles sont supposément constituées. Bien que de nombreuses personnes aient observé des effets et des corrélations causales des fonctions d’onde (par exemple, les motifs d’interférence à double fente), personne n’a jamais vu une fonction d’onde ou une onde de probabilité directement. Il s’ensuit que les fonctions d’onde quantiques n’habitent pas l’affichage, pas plus que les particules dont elles représentent les états. Il s’ensuit que les particules ne sont pas réellement présentes dans l’affichage tant qu’elles ne s’y sont pas « effondrées » depuis un autre endroit, et que dans la mesure où elles continuent d’exister, elles doivent aller « ailleurs » pour être traitées.

Cela implique que le traitement et l’affichage sont reliés par une identité de fond qui fait le lien entre les fonctions alternantes d’affichage et de traitement. Satisfaire pleinement ce critère de connectivité nécessite un niveau ultime de réalité totalement auto-contenue et ne nécessitant aucun fond externe ; son arrière-plan est purement intrinsèque et connecte tous les niveaux de la réalité ainsi que leurs « simulations » associées.

Cette identité ultime est le Système Métaformel (Langan, 2018) ontiquement clos, sur lequel la configuration suivante est définie. Les lecteurs sont renvoyés aux articles précédents sur le CTMU (Langan, 2002, 2017) pour plus d’informations.

(5) Traitement génératif (hologique conspansif) et affichage (CTMU) : La réalité ultime est un opérateur de télé-identification ontiquement auto-contenu R* = RINTLRREXT qui se simule lui-même dans une boucle de rétroaction générative de processeur-affichage multi-niveaux, propulsée par la grammaire auto-duale Γμ du Système Métaformel M du CTMU, décrivant la structure et la dynamique de l’opérateur.

R* = RINTLRREXT [= NLRT] = processeurLRaffichage (E.11)

Notez la flèche à deux têtes, qui remplace les flèches à une tête de la section précédente. Elle désigne la rétroaction entre le processeur et l’affichage. Cette rétroaction reflète une forme terminale de symétrie temporelle associée aux semi-modèles avancé (rétrocausal) et retardé (causal) du CTMU, correspondant au « confinement de l’affichage » de la grammaire métacausale du CTMU. (Langan, 2019)

Avant de poursuivre cette description dans la Section VI, voici une révision simplifiée du Système Métaformel (Langan, 2018).

V. CTMU / Le Système Métaformel

Le CTMU simplifié

Le CTMU peut être décrite succinctement comme un langage structuré de manière à se parler à lui-même à propos de lui-même (ce qui en fait en réalité un « métalangage de lui-même »). C’est ainsi qu’il existe et évolue. Ce langage-réalité revêt une forme nouvelle requise par sa fonctionnalité, mais peut toujours être décrit comme un langage. La forme requise est celle du Système Métaformel M, le langage-identité intrinsèque supertautologique de la réalité. M est l’auto-configuration linguistique par laquelle la réalité s’identifie, et qui nous permet d’identifier la réalité avec certitude par une perception répliquée directe. Son existence est implicite, car c’est ce que nous, ainsi que la réalité, faisons réellement.

Lorsque nous disons que la réalité « se parle à elle-même », cela signifie que ses ingrédients, les opérateurs d’identification syntaxique, communiquent et interagissent les uns avec les autres, « parlant et écoutant » dans le but de l’auto-identification et de l’identification mutuelle. (Les opérateurs d’identité sont des objets actifs qui identifient ou déterminent les états d’autres opérateurs d’identité.) La réalité utilise des images internes d’elle-même pour s’auto-communiquer et s’auto-transformer. Lorsque nous disons que la réalité « parle d’elle-même », cela signifie que les aspects formels et substantiels des opérateurs d’identification sont inséparablement couplés en leur sein ; l’intension formelle de chaque opérateur est couplée à sa substance extensionnelle dans les états (externes et internes) des opérateurs. Ainsi, ce que la réalité « se dit à elle-même à propos d’elle-même » est fidèlement lié au contenu réel de la réalité.

Si l’on a du mal à voir comment le langage et la réalité pourraient avoir quelque chose en commun, même si tout le monde utilise le langage pour décrire divers aspects de la réalité chaque jour, on peut alors se concentrer sur les opérateurs d’identification eux-mêmes et considérer la réalité comme une sorte « d’algèbre des opérateurs ». C’est un système d’identité constitué d’opérateurs d’identité qui identifient les états d’autres opérateurs d’identité. Chaque opérateur d’identité s’identifie par auto-modélisation, et par la synonymie virtuelle de la modélisation et de la simulation, « s’auto-simule » dans l’affaire. On peut penser à ces opérateurs, bien que de manière simpliste, comme à un essaim de sphères interpénétrantes qui s’intersectent et s’absorbent mutuellement – ou se « simulent » les unes les autres intérieurement – dans l’espace et le temps, mais s’étendent dans une « pré-réalité métaphysique » ou le domaine non terminal N pour ce faire. Ils s’interpénètrent à travers une opération grammaticale appelée conspansion, et se couplent les uns aux autres tout en transformant leurs états par une opération d’auto-modélisation « protocomputationnelle » appelée récursion télique, qui effondre et affiche leurs fonctions d’onde lors d’événements de mesure terminaux (où la protocomputation est une généralisation primitive de la computation appropriée à la structure du CTMU). Ainsi, non seulement la réalité est un opérateur d’identité auto-modélisant et donc une auto-simulation globale, mais elle consiste également partout en opérateurs d’identité conspansants et est donc « quantifiée » en termes de cycles conspansifs auto-simulants. C’est-à-dire qu’elle est partout une auto-simulation (Langan, 2002). Les cycles conspansifs des opérateurs d’identité quantifient la réalité non seulement par rapport à l’auto-simulation, mais aussi à la conscience et à l’information quantique émergente.

La structure métaformelle du RSS [NDT : Reality Self-Simulation – Auto-Simulation Réalité] ne laisse aucun doute sur le caractère auto-simulant de la réalité. Contrairement aux simulations de réalité artificielle dépeintes dans des films comme « Tron » et « The Matrix » (que le CTMU précède de plus d’une décennie), la simulation de réalité réflexive du CTMU est naturelle, réflexive, et n’a pas besoin d’un système hôte artificiel. C’est son propre système hôte, avec toutes les fonctions réparties entre les opérateurs d’identité de M et les points de sa variété. Cette variété possède à la fois des couches de traitement et une couche spatiotemporelle supérieure qui sert de « support d’affichage ». Dans sa phase de traitement non terminal, le système hôte auto-distribué de la réalité ultime s’auto-simule en (1) utilisant sa grammaire métacausale pour « pré-simuler » ses états futurs en termes de ses états passés dans la pré-réalité non terminale N ; (2) avançant vers la phase d’affichage et effondrant les telons non terminaux (relations métacausales) vers le contenu terminal de son affichage T ; et (3) itérant encore et encore dans une vaste boucle de rétroaction multi-niveau hautement orchestrée, générant toute l’action visible sur son « écran d’affichage » spatiotemporel.

Le Système Métaformel peut être exprimé de manière duale comme suit :

(M:LLRU) = (ΣM{N,T}, Γμ , SΣ) (E.12)

Cette équation identifie M comme un opérateur d’identité ontique et un langage intrinsèque trialique.

Du côté gauche de l’équation E.12, qui se lit « M:LLRU », se trouvent les symboles suivants :

M : L’identité active (id-opérateur linguistique métaformel) de la réalité telle que nous la connaissons et la percevons. Sa structure et sa dynamique sont celles du Système Métaformel CTMU, le métalangage intrinsèque de la réalité dont les signes sont des identités actives (opérateurs de couplage intension|extension, opérateurs d’identité, id-opérateurs). M est logiquement induit à partir de la réalité telle qu’elle est connue par la cognition humaine et la perception de son motif et de sa substance, où l’induction logique est l’inférence du soutien nécessaire et suffisant à l’auto-identification de la réalité, c’est-à-dire l’inférence des exigences d’existence et d’intelligibilité.

M est également désigné comme l’« opérateur-descripteur global » ou G.O.D. [NDT : Global Operator-Descriptor], ainsi nommé parce qu’il s’agit d’un opérateur d’identification global qui se distribue lui-même sur la réalité en tant que syntaxe universelle ou descripteur, par lequel il identifie la réalité à la fois directement et à travers des id-opérateurs secondaires et tertiaires. M peut être appelé R* lorsque l’aspect auto-simulant de M est mis en avant, ou symbolisé par Γ lorsque l’accent est mis sur ses aspects grammaticaux. Lorsque l’accent est mis sur la cosmologie et/ou la théorie quantique, M peut être considéré comme représentant le multivers, le métavers, la méta-réalité ou la métaphysique (des mots qui sont conventionnellement ambiguës, mais qui se prêtent à une définition précise dans le contexte métaformel).

M est une structure métaphysique dans laquelle l’existence est couplée à l’identification et à l’intelligibilité, ce qui revient à un couplage de l’ontologie et de l’épistémologie. (Ce couplage devrait en tout cas être évident ; quelque chose doit être identifié avant que l’existence puisse lui être attribuée, et ce n’est que là où cela existe en tant que concept ou percept qu’il peut être identifié comme tel.) En raison du rôle dual de ses id-opérateurs en tant que signes de sa signature et points de sa variété inhérente, M est une supertautologie et donc une nécessité logique. On peut beaucoup apprendre de la structure de la réalité à partir de ses propriétés fonctionnelles, même sans énumérer ses ingrédients non logiques.

M est un métalangage du langage-objet L de la cognition et de la perception. En conséquence, la signature de M peut être considérée comme une « méta-signature » par rapport à la signature du langage-objet formel L, car elle « enveloppe » ou conditionne L dans des opérateurs syntaxiques formant les « signes actifs » de M et les points dynamiques de la variété conspansive. En effet, la méta-signature de M « convertit la forme en substance » en conditionnant les identités formelles génériques de L dans des id-opérateurs instanciés par leurs états, les remplissant de contenu et couplant ainsi L et U. Sans ce couplage, la réalité ne serait ni auto-intelligible ni intelligible pour nous en tant qu’auto-images internes, sur lesquelles sa structure générique est distribuée comme la syntaxe à travers laquelle nous reconnaissons le monde et la grammaire à travers laquelle nous aidons à le créer.

L : L’aspect purement intensionnel (non instancié/non extensionnel) de l’identité active (id-opérateur métaformel) M ; le descripteur universel. L peut également être considéré comme le langage-objet de M, couplé par M avec des instances spécifiques dans U. Il est associé à la syntaxe M ou à la forme distribuée universelle (UDF) [NDT : universal distributed form], qui inclut toutes les propriétés et structures formelles ou abstraites en termes desquelles tous les objets, relations et processus réels sont identifiés dans M. L’UDF se compose de formes syntaxiques (non terminaux grammaticaux), de définitions formelles (identités formelles/génériques avec des extensions vides) et d’expressions formelles.

LR : Le couplage structurel et grammatical générique de L et U, affiné par les opérateurs d’identité via la CDF au contenu du domaine terminal. La CDF est la forme distribuée conditionnelle [NDT : Conditional Distributed Form], une sorte de « syntaxe post-sémantique » ou de motif métrique de superposition étendue dans N qui enregistre et potentialise le liage sémantique progressif et la localisation des id-opérateurs conduisant à la distribution terminale de la masse et de l’énergie dans l’espace-temps. La CDF peut être considérée comme reliant l’UDF, la « syntaxe universelle acceptante|générative » ou l’auto-modèle intensionnel générique de la réalité, au domaine terminal ou à l’« affichage » extensionnel. Elle peut être associée dualement à la factorisation grammaticale de la télèse par les id-opérateurs, générant ainsi des relations support|contenu conspansives dans T (les auto-simulations des id-opérateurs), et les interactions terminales des objets physiques lors des événements de transition d’état.

U : L’aspect extensionnel de l’identité active (id-opérateur métaformel) M. U, qui représente l’univers ou le domaine de discours du langage formel L, se compose d’instances spécifiques directement discernables de L, c’est-à-dire des id-opérateurs tertiaires pleinement localisés obéissant à un principe d’exclusion approprié. Le critère de discernibilité revient à un « critère d’affichage » ; les instances discernables sont limitées à des états pleinement localisés dans U. U coïncide donc avec le contenu physique du domaine terminal… la distribution de la matière dans l’espace-temps. La métrique de l’espace-temps, en revanche, occupe la CDF, qui interconnecte les contenus de U et connecte U à L, en mettant à l’échelle et en localisant L.

Sur le côté droit de l’équation E.12, qui se lit « (ΣM{N,T}, Γμ, SΣ) », nous avons :

ΣM{N,T} est la signature de M avec des sous-signatures non terminales et terminales (ou « étapes ») N et T. ΣM contient les « composants » de M, y compris les opérateurs d’identité primaires (global-téléologiques) auto-duaux, secondaires (organo-téliques) et tertiaires (micro-physiques) ; leur similitude structurelle et fonctionnelle définit la méréologie auto-similaire de M. Les opérateurs d’identité sont à la fois les éléments de l’algèbre des id-opérateurs ou du « système d’identité » de M et les points de sa variété intrinsèque, liant supertautologiquement l’algèbre et la géométrie ensemble dans M. Cette relation n’est pas déterminée uniquement au niveau physique (tertiaire), mais aussi aux niveaux primaire et secondaire associés à la téléologie et à la télèse organique. Chaque id-opérateur alterne entre les domaines terminal et non terminal par le biais de la conspansion ; ainsi, N et T sont mieux considérés comme des « étapes » des opérateurs. ΣM s’étend sur L et U, N et T, et toutes les échelles méréologiques de M (primaire, secondaire, tertiaire).

Γμ est la grammaire mu-morphique de M. Elle est générative, factorisant la télèse en relations support|contenu. Elle implique deux opérations, la conspansion et la récursion télique, par les id-opérateurs. Ces opérations sont respectivement analogues au traitement générique et à la programmation spécifique, où la « programmation » est l’auto-modélisation de M et de ses id-opérateurs téliques secondaires. Γμ détermine des faisceaux de chaînes terminales entrelacées et intersectantes ou de séquences d’événements dans T, conférant aux dynamiques du système des niveaux cachés d’organisation causale qui ne sont pas localement évidents dans T lui-même. Bien que les événements ainsi liés semblent être déterminés indépendamment (et souvent « aléatoirement ») par la causalité locale, ils peuvent – étant donné la liberté suffisante fournie par la générativité de Γμ – être déterminés plutôt par des dépendances non locales entre des points distants de T qui s’intersectent et se couplent grammaticalement dans N sans enfreindre réellement la localité.

La grammaire évolue de manière orthogonale (projective) par rapport à l’évolution temporelle de l’espace-temps. L’évolution causale localiste de l’espace-temps est donc largement illusoire, sauf dans des contextes classiques (non-quantiques), étant projetée du domaine non terminal N vers le domaine terminal T par Γμ en tant que « causalité physique » standard. En d’autres termes, grâce à la rétroaction non locale médiée par Γμ et à la récursion télique (auto-organisation grammaticale adaptative) dans N, les chaînes terminales ou les séquences d’événements temporels émergent effectivement dans l’espace-temps sur toute leur longueur. Avec d’autres aspects de M, Γμ constitue donc la base d’une nouvelle approche de l’auto-organisation et de l’émergence dans la théorie de la complexité.

SΣ : Les chaînes sont des séquences temporelles d’opérateurs d’identité d’étape terminale (signes ou symboles actifs) issus de ΣM, plus spécifiquement de la sous-signature terminale T, avec leurs états externes entièrement résolus. Elles sont soumises à des règles de syntaxe et d’orthographe, qui incluent les « lois de la nature » ou les « lois de la physique » contrôlant les séquences d’états et les événements de transition d’état dans T. Les chaînes décrivent l’évolution temporelle apparente des opérateurs d’identité tertiaires dans T alors qu’ils interagissent lors d’événements de transition d’état mutuels.

VI. Le Système Métaformel comme Auto-Simulation de la Réalité

Voici à nouveau la configuration du RSS présentée à la fin de la Section IV.

(5) Le traitement et l’affichage (CTMU) génératifs (hologiques et conspansifs) : La réalité ultime est un opérateur d’auto-identification telique auto-contenu ontologiquement R* = RINTLRREXT qui se simule dans une boucle de rétroaction générative multi-niveaux, pilotée par la grammaire auto-duale Γμ du Système Métaformel CTMU M décrivant la structure et la dynamique de l’opérateur.

R* = RINTLRREXT [= NLRT] = processeurLRaffichage (E.11)

N et T sont (respectivement) les niveaux nonterminaux et terminaux de la signature ΣM de M et de sa variété duale stratifiée (conspansive). Les éléments de ΣM sont des id-opérateurs occupant des niveaux primaires (cosmiques), secondaires (mesoscopiques/biologiques) et tertiaires (submicroscopiques/quantiques), les éléments de niveaux supérieurs coordonnant ceux en dessous. N et T ne sont pas disjoints, mais décrivent des fonctions alternées des id-opérateurs ; c’est-à-dire que les éléments alternent entre N et T dans les cycles conspansifs de Γμ. Dans N, ils sont des signes actifs soumis à la conspansion et à la récursion télique (les opérations de Γμ) ; dans T, ils sont les points pleinement localisés de la variété « physique » de l’espace-temps. Ainsi, les signes actifs (opérationnels) de la signature sont les points dynamiques (conspansants) de son milieu correspondant.

L’Auto-Simulation Réalité (RSS) peut être identifiée avec le Système Métaformel M comme suit. L’aspect non-terminal N de sa signature ΣM est l’étape de traitement de la RSS, et l’aspect terminal est son étape d’affichage T. Les chaînes SΣ de M sont les histoires spatio-temporelles des opérateurs d’identité tertiaires (opérateurs d’identification, id-opérateurs) de ΣM, c’est-à-dire le contenu statique et dynamique de l’affichage. La grammaire M, Γμ, un « méta-processus » orthogonal au paramètre temporel de T, est le processus auto-dual par lequel les opérateurs d’identité s’auto-modèlent ou « programment N » avec des entrées provenant de T, et par lequel N traite de manière adaptative les entrées et livre les sorties en retour à T. Les id-opérateurs secondaires existant à la fois dans N et T fonctionnent ainsi comme observateurs, programmeurs et processeurs. L’id-opérateur primaire ou « téléologique » M coordonne le tout.

Parce que les fonctions de traitement et d’affichage sont associées à chaque opérateur d’identité de M – parce que les éléments d’affichage se répercutent conspansivement sur eux-mêmes dans des cycles de traitement-affichage grammaticaux – le traitement est distribué en parallèle avec l’affichage. T est l’affichage, composé d’éléments en étape d’affichage, tandis que N est le processeur, composé d’éléments en étape de traitement, avec le tout coordonné par l’id-opérateur primaire R* = M en utilisant la même grammaire et syntaxe, dont des versions plus ou moins restreintes sont employées par les opérateurs secondaires et tertiaires à l’échelle biologique et quantique, dotant ainsi le système d’une profonde auto-similarité structurelle et dynamique. Les éléments tertiaires de N sont en étape de traitement de leurs cycles conspansifs, tandis que les éléments tertiaires de T sont en étape d’affichage. N et T coexistent en tant que niveaux d’une variété sur laquelle la structure générique de M se distribue ponctuellement en tant que grammaire et syntaxe.

Les opérateurs d’identité, chacun ayant une fonctionnalité duale de traitement et d’affichage dans N et T respectivement, s’effondrent répétitivement de N vers T, puis se rétractent de T de retour vers N par expansion interne. Comme les opérateurs d’identité jouent des rôles duaux, étant à la fois les signes de la signature et les points de sa variété duale, l’évolution conspansive de la variété extensionnelle de M reflète l’évolution grammaticale de l’intension linguistique de M par la factorisation des non-terminaux en leurs successeurs dérivationnels. Ainsi, les points eux-mêmes fournissent l’interface processeur-affichage (N|T). Contrairement aux configurations de traitement à distance dualistes 1 et 2 de la Section IV, le processeur et l’affichage ne sont pas séparés, mais constituent des aspects duaux d’une seule variété logico-géométrique unifiée ; contrairement aux configurations de traitement distribué 3 et 4, le traitement ne se produit pas dans l’affichage T, mais dans des couches plus profondes de N (sur lesquelles il reste distribué).

En raison de la générativité du système, par laquelle les points s’étendent intérieurement dans N et se ré-effondrent dans T pour former de nouveaux états à l’intérieur de leurs prédécesseurs et sont ainsi factorisés en support et contenu, les points tertiaires de la variété conspansive sont des sous-simulations en eux-mêmes. Pour toute paire d’états successifs s1 et s2 d’un pixel donné, s2 est affiché au sein de son prédécesseur intérieur étendu s1 (le « support d’affichage ») par effondrement. Les méta-points secondaires (auto-modélisants, auto-organisateurs) connectent les sous-simulations tertiaires pour former des sous-simulations téloniques de complexité supérieure, favorisant l’émergence d’informations d’ordre supérieur et comblant les déficits causaux associés à l’indétermination quantique tout en agissant comme des observateurs avec un attribut de « conscience » générique proportionnel à la capacité d’auto-modélisation ou de « programmation ».

Ainsi, les id-opérateurs secondaires et tertiaires du Système Métaformel CTMU M servent d’éléments de traitement dans N, d’éléments d’affichage dans T, des états transformés dans N et affichés dans T, des programmeurs auto-modélisants et des observateurs conscients. M lui-même, l’id-opérateur primaire de la réalité, fournit la structure distribuée et la cohérence globale nécessaires pour soutenir pleinement ces fonctions.

VII. Résumé

Le RSS, bien qu’il ne soit pas sans complexité, peut être décrit de manière compacte comme un opérateur d’identité télique (“ultime”) ontologiquement et épistémologiquement fermé R* ayant la structure unique du Système Métaformel CTMU. Cet opérateur d’identité télique peut être conceptualisé comme un multivers ; cela est dû à la nature de la générativité, où la grammaire générative de M sélectionne chaque nouvel état à partir d’une gamme incalculable d’états suivants possibles, couplant de manière projective l’UDF invariante avec toute configuration terminale qui la soutient (“coupler alpha avec oméga”).

Le Système Métaformel est une supertautologie, c’est-à-dire un langage d’identité intrinsèque (parfaitement auto-contenu) qui est trialique (comprenant son propre univers et modèle), les opérateurs d’identité de sa signature étant les points de son univers et le contenu substantiel des points tout en remplissant également toutes les autres fonctions essentielles du système. C’est une nécessité ontologique et épistémologique pour l’existence cohérente et l’évolution de la réalité telle qu’elle est connue expérientiellement et scientifiquement par ses télors secondaires, c’est-à-dire, ses observateurs résidents incluant les êtres humains, pour qui elle fonctionne comme un langage-identité universel. Ses implications génériques sont indiscutables, révélant la nature de la réalité même sans énumération exhaustive de ses ingrédients non logiques.

Les ingrédients du Système Métaformel existent en parfaite correspondance avec les composants fonctionnels du RSS, qui sont les suivants :

(1) Processeurs et éléments de traitement

(2) Écrans et éléments d’affichage

(3) Connexions processeur-affichage ou canaux de communication

(4) Opérateurs de modélisation ou de programmation

(5) Observateurs ou opérateurs d’observation

(6) Contenu d’affichage, incluant des états, événements et processus

Respectivement, les composants ci-dessus correspondent aux ingrédients suivants de M :

(1) Opérateurs d’identité télique dans N (pré-réalité non terminale)

(2) Opérateurs d’identité tertiaire dans T (réalité terminale ou physique)

(3) Cycles Γμ conspansifs NLRT impliquant tous les niveaux d’opérateurs d’identité

(4) Opérateurs d’identité télique se configurant dans N pour actualisation dans T

(5) Opérateurs d’identité télique lisant le contenu d’affichage dans T

(6) Chaînes, ou processus, constituées des états externes successifs et des événements de transition d’état interactive ou « lignes d’univers » des opérateurs d’identité tertiaire.

Comme mentionné précédemment, les cycles Γμ conspansifs des opérateurs d’identité dans ΣM et SΣ quantifient la réalité non seulement en ce qui concerne l’auto-simulation, mais aussi la conscience (capacité cohérente d’auto-identification et d’auto-modélisation) et l’information quantique émergente. Il s’en suit que la réalité est ultimement une auto-simulation possédant non seulement une ontologie quantique inébranlable, mais aussi sa propre forme primitive de conscience et un nouveau paradigme pour l’auto-organisation et l’émergence.

Références

Bostrom, N. (2003). Are You Living in a Computer Simulation? Philosophical Quarterly, Vol. 53, No. 211, pp. 243-255.
http://www.simulation-argument.com/simulation.html

Bostrom, N. (2008). The Simulation Argument FAQ (Updated 2011), Version 1.10.
http://www.simulation-argument.com/simulation.html

Descartes, R. (1996).René Descartes: Meditations on First Philosophy with Selections from the Objections and Replies. Edited by John Cottingham. Cambridge: Cambridge University Press. ISBN 0-521-55818-2.

Langan, C. M. (1989). The Resolution of Newcomb’s Paradox. Noesis, 44.
http://megasociety.org/noesis/44/newcomb.htm

Langan, C. M. (2002). The Cognitive-Theoretic Model of the Universe: A New Kind of Reality Theory. Progress in Complexity, Information, and Design, 1, 2-3.
https://pdfs.semanticscholar.org/537a/c9c6066f20039491a72b361a4009a3d5623f.pdf

Langan, C. M. (2017). An Introduction to Mathematical Metaphysics. Cosmos and History: The Journal of Natural and Social Philosophy, 13, 2.
https://cosmosandhistory.org/index.php/journal/article/viewFile/618/1040

Langan, C. M. (2018). The Metaformal System: Completing the Theory of Language. Cosmos and History: The Journal of Natural and Social Philosophy, 13, 2.
https://cosmosandhistory.org/index.php/journal/article/viewFile/618/1040

Langan, C. M. (2019). Introduction to Quantum Metamechanics (QMM). Cosmos and History: The Journal of Natural and Social Philosophy, 15, 2.
https://www.cosmosandhistory.org/index.php/journal/article/viewFile/788/1422

Plato (n.d.). The Allegory of the Cave. Republic, VII 514 a, 2 to 517 a, 7. Traduit par Thomas Sheehan.
https://web.stanford.edu/class/ihum40/cave.pdf

Schrödinger, E. (1926). An Undulatory Theory of the Mechanics of Atoms and Molecules. Physical Review, 28 (6): 1049–1070.

Wheeler, J. A. (1986) « How Come the Quantum? », Annals of the New York Academy of Sciences, Volume 480, 1, New Techniques and Ideas in Quantum Measurement Theory, pp. 304-316.
https://doi.org/10.1111/j.1749-6632.1986.tb12434.x

Wolfram, S. (2002). A New Kind of Science. Champaign, IL: Wolfram Media

Publication originale en langue anglaise Cosmos and History: The Journal of Natural and Social Philosophy, vol. 16, no. 1, 2020 https://cosmosandhistory.org/index.php/journal/article/view/867

Dernière révision de la traduction le 02/10/2024.

Contenus