Quando è possibile modellare fenomeni complessi del mondo reale come semplici sistemi a bassa dimensione?

Aug 24 2020

I miei interessi principali sono i sistemi biologici, ma la questione è generale.

Sono stato addestrato in biologia computazionale e praticamente tutti i modelli quantitativi di processi biologici che ho incontrato nei miei studi universitari erano di natura probabilistica: modelli di Markov nascosti, reti bayesiane ecc. Ciò ha senso considerando la complessità di questi processi. Questi sono sistemi con molti gradi di libertà che interagiscono in modi spesso non lineari, e quindi ovviamente non c'è speranza di descriverli con un insieme gestibile di equazioni come si farebbe, per esempio, con il moto dei pianeti nel sistema solare, e ovviamente si deve ricorrere all'uso di modelli stocastici.

Tuttavia, ho visto (di solito nel contesto della biofisica) molti casi di processi biologici complessi modellati come sistemi dinamici di bassa dimensione (di solito non lineari), con un impressionante potere predittivo ed esplicativo.

Ho letto della teoria della varietà centrale, che si occupa di sistemi ad alta dimensione in cui molte delle dimensioni sono superflue, nel senso che le perturbazioni in queste direzioni si estinguono rapidamente e quindi è possibile un'efficace descrizione a bassa dimensione del sistema. È una bella teoria, ma in realtà non risponde alla domanda, che diventa "Perché i sistemi dinamici che descrivono i processi del mondo reale hanno così tanti autovalori negativi nei loro quasi equilibri Jacobiani?"

Domande:

  1. Quale proprietà dei sistemi complessi (o di certi osservabili di tali sistemi) li rende modellabili come sistemi a bassa dimensione?

  2. Perché così tanti sistemi del mondo reale sembrano avere questa proprietà?

  3. In particolare, ho ragione che ciò accade più spesso di quanto ci si aspetterebbe nei sistemi biologici?

Le risposte tecniche o non tecniche sono entrambe benvenute.

Risposte

3 stafusa Aug 24 2020 at 10:22

Ecco un paio di fattori che entrano in gioco:

  • Se prendiamo un dato sistema della vita reale descritto, diciamo, da 2000 variabili, è probabile che:
    • molti di essi non sono completamente indipendenti o non equivalenti e possono essere ignorati, come in un cristallo, le cui simmetrie ne limitano notevolmente la descrizione;
    • un gran numero di quelli rimanenti può essere aggregato con poca perdita di informazioni - come le popolazioni di specie diverse che giocano lo stesso ruolo in un modello ecologico;
    • c'è una sorta di perdita nel sistema, di energia per esempio, che semplifica, limita il suo comportamento asintotico - restringendolo a una regione del suo spazio degli stati considerevolmente più piccola (e di dimensioni minori) dell'intero spazio degli stati;
    • il sistema è soggetto a rumore che, non importa quanto piccolo, tipicamente azzera la possibilità di trovare il sistema su una delle sue (probabilmente molte) soluzioni instabili: un'ulteriore restrizione sulla regione dello spazio degli stati che dobbiamo considerare.
  • E se questo sistema ha, per esempio, 100 parametri, allo stesso modo:
    • è molto improbabile che siano tutti ugualmente importanti - prendere alcuni dei più influenti permette di spiegare gran parte della variabilità del sistema;
    • alcuni parametri probabilmente non saranno completamente indipendenti, o saranno fissati da fattori intrinseci o esterni, essendo effettivamente costanti, piuttosto che parametri.

Quando il rumore di cui sopra non si annulla in media (e ha un'influenza irrisoria sul sistema), allora le descrizioni statistiche sono probabilmente inevitabili.

Questo è per le domande 1 e 2; per quanto riguarda la domanda 3, è forse una questione di opinione personale: in fondo, quanto "ci si aspetterebbe"? Dati i fattori sopra elencati, si potrebbe sostenere che è prevedibile che più sistemi siano descrivibili in dimensioni inferiori. In ogni caso, non dobbiamo dimenticare che diamo maggiore attenzione a tali sistemi, indipendentemente dal fatto che siano tipici o meno, semplicemente perché sono quelli che possiamo capire meglio - il che potrebbe dare l'impressione che siano più comuni di quanto non siano in realtà sono.

1 AdamHerbst Aug 24 2020 at 04:27

Gli equilibri con autovalori positivi tenderebbero a saltare se fossero perturbati anche di poco, giusto? Il che significa che, in contesti in cui sono probabili quei tipi di perturbazioni, non tenderemmo a trovare sistemi in quegli equilibri. Sarebbero già "esplosi" localmente e si sarebbero spostati fuori da quella regione della varietà. Quindi forse è solo che, nel tempo, il mondo si è evoluto in modo che i sistemi si trovino negli equilibri che sono stabili dato il loro contesto, il che significa che per tutti i tipi di perturbazioni che sperimenteranno nel loro ambiente, gli autovalori sono negativi.

Per quanto riguarda il motivo per cui un sistema complesso può spesso essere modellato con un basso numero di parametri. Ebbene, in genere quei pochi parametri risultano essere medie o aggregati dei più numerosi gradi di libertà visibili a scala minore. Quindi la domanda è: come mai possiamo applicare le leggi della fisica solo a quelle proprietà aggregate invece di tenere conto di tutti i veri gradi di libertà?

Potresti scrivere la legge dinamica in questione per ogni particella del sistema. Ma se il sistema è lineare, allora puoi sommare tutte quelle equazioni e ti ritroverai con la stessa legge, applicata solo all'oggetto nel suo insieme, con le sue proprietà aggregate. In virtù della conservazione, le interazioni tra le singole particelle del sistema si annulleranno e la legge farà riferimento solo alle influenze provenienti dal mondo esterno.

Ed è per questo che è importante che, nella misura in cui il sistema è non lineare, quelle perturbazioni non lineari decadano velocemente. Perché finché non lo fanno, devi considerare le parti del sistema separatamente, quindi sei costretto a usare più parametri per descriverlo.

1 eric Sep 02 2020 at 03:01

A queste domande risponde la teoria del gruppo di rinormalizzazione (RG). In breve, quando prendi un sistema con molti gradi di libertà (DOF) e ripetutamente lo definisci a grana grossa, la descrizione a grana grossa descrive un flusso nello spazio delle distribuzioni di probabilità. Questo flusso ha la proprietà che molti dettagli microscopici diventano irrilevanti , il che è elevato a termine tecnico. Nella fisica della materia condensata e delle particelle, normalmente discutiamo questo flusso in termini di Hamiltoniano, ma il concetto si applica a qualsiasi famiglia di distribuzioni di probabilità e quindi si applica universalmente.

Per capire intuitivamente perché ci sono così tante direzioni irrilevanti, l'idea chiave è che la maggior parte dei DOF interagisce solo localmente, in modo che un grande sistema sia approssimativamente costruito da sottosistemi approssimativamente non interagenti. Quindi, con grana grossa, la cosiddetta descrizione rinormalizzata ha interazioni più deboli rispetto alla descrizione originale. L'irrilevanza in RG è quindi un'estensione dell'irrilevanza dei momenti superiori nel teorema del limite centrale.

Per rendere precise queste idee, è necessario il linguaggio della teoria dei campi. La visione moderna si è cristallizzata negli anni '70 con il lavoro di Ken Wilson, sebbene questo fosse basato sul concetto correlato, ma distinto, di rinormalizzazione utilizzato nella fisica delle particelle sin dagli anni '50.

Ci sono due importanti avvertenze rispetto ai sistemi biologici: in primo luogo, il solito RG è sviluppato in termini di località spaziale. Se si dispone di un sistema non organizzato spazialmente, può essere difficile applicare i metodi ortodossi. Questa è un'area di ricerca attualmente attiva. In secondo luogo, l'approccio RG funziona bene quando c'è un'ampia separazione di scale tra la microscala e la macroscala. Questo criterio potrebbe non essere sempre soddisfatto nei sistemi biologici.