Manlio d’Agostino Panebianco
“B-ASC” Centro di ricerca Università degli Studi di Milano Bicocca
Oggigiorno ci sono molteplici fenomeni sociali, economici, fisici e psicologici – dinamici e complessi – che sono spesso difficilmente spiegabili, i cui comportamenti non sempre possono essere descritti analiticamente e linearmente.
Il concetto di “complessità”, nonostante sia riconducibile già ad Aristotele, si è sviluppato solo nella seconda metà del XX secolo, sebbene non abbia una codificazione universalmente riconosciuta e condivisa. In primis, non va confuso con “difficile”: la complessità riguarda le interazioni di molteplici fattori non regolati sempre nel medesimo modo e/o con istruzioni predeterminate o predeterminabili, ma interagiscono differentemente tra loro, in relazione a specifiche circostanze. Per tale ragione possiamo associarlo al comportamento individuale o sociale, paragonandolo al funzionamento delle cellule celebrali.
La “teoria della complessità”, quindi, si focalizza sulla non-linearità (irregolarità, instabilità, imprevedibilità), quell’ordine nascosto basato sulla evoluzione delle relazioni e delle interazioni delle componenti dinamiche e mutanti del sistema stesso. Il “Complexity Management” – che affronta la complessità dei comportamenti, i cui pilastri sono l’incertezza e l’imprevedibilità, in contrapposizione con la natura quantitativa e le relative misurazioni di performance – punta a massimizzare le potenzialità, mantenendo il delicato equilibrio tra “ordine” (regole) e “caos” (eventi inattesi), garantendo l’efficacia ed affidabilità dei sistemi di pianificazione (specialmente quando vi sono in gioco delle variabili endogene ed esogene legate alla probabilità).
Il risultato di un sistema “complesso” non facendo riferimento alla somma matematica dei singoli fattori, da risultati di gran lunga migliori, sia dal punto di vista quantitativo che qualitativo: a tal uopo, sembra opportuno richiamare il Principio di Pareto (80:20) in cui le due dimensioni richiamate non dovrebbero essere considerate in modo rigido (erroneamente in forma di percentuale, la cui sommatoria è 100) bensì come modello di distribuzione, in cui l’interazione tra l’elemento “minore” influisce significativamente su quello “maggiore”.
Anche per tale ragione, questa metodologia risulta efficace ed utile nella definizione di strategie previsionali, modelli organizzativi dinamici, analisi dei fenomeni economico-sociali, in specie quando riguardano l’osservazione di reazioni a situazioni emergenti in itinere.
In tale approccio è insita una sostanziale modifica della dinamica di “azione-reazione” in favore di una catena di interazioni (ad alta o esponenziale frequenza) tra gli elementi e gli attori, in una logica di multi o poliprospettiva (ossia da diverse angolazioni e punti di vista) che supera quella solo legata alla maggiore rilevanza della influenza che la singola può avere sul risultato complessivo.
Il risultato è che ciascun effetto può diventare causa di ulteriori effetti in un sistema esponenziale: in tal senso, un modello di riferimento utile è il «four-way view» del Prof. B.V. Krishnamurthy adottato in ambito sociale (interazione tra lavoro, comunità, individuo ed ambito privato).
A titolo esemplificativo (e non di certo esaustivo), uno degli aspetti più importanti della complessità nella vita moderna (visto che influenza tutto, dalla società, alla finanza, alla economia), è il binomio tra la reputazione (una opinione che appartiene alla sfera della percezione individuale o collettiva) e credito (affidabilità, latu sensu), in ragione delle derivanti decisioni relazionali prese sulla scorta di esperienze, informazioni e dati pregressi, oggi sempre più, facilmente reperibili tra i Big Data (sia in termini di velocità di acquisizione e di disponibilità). Basti pensare alle modalità di affidamento bancario o ai sistemi organizzativi basati sul binomio delega-responsabilità.
La reputazione, oggigiorno, è legata alle dinamiche degli “influencers” (persone che hanno una forte capacità di persuasione mediatica) nonché delle fonti indirette: entrambe sono difficilmente controllabili, e portano ad un appiattimento informativo nonché ad un “conformismo [mediatico] con effetti collaterali, che facilmente si diffondono”. Oltretutto, deve essere evidenziato che la misurazione delle percezioni è ancora una metodologia che sconta un certo grado di incertezza.
Anche per tali motivazioni, la Complessità non è in contrapposizione con l’Intelligence (attività informativa finalizzata a costruire scenari predittivi a disposizione del decisore finale, per la risoluzione di un problema o per contrastare le minacce future), poiché in una visione “olistica” (il totale è molto di più della mera somma dei fattori, prendendo in considerazione tutti gli aspetti nel coloro complesso) le stesse sono complementari (completandosi reciprocamente), riducono il rumore di fondo (falsi positivi) e gli errori di calcolo legati alle logiche “vero-falso” che escludono le ipotesi “apparentemente” meno significative (come evidenziato da A. Frini e A.C. Boury-Brisset).
La Complessità, riferendosi agli aspetti qualitativi, tratta infatti delle incertezze e dell’inatteso, influendo positivamente sulla percezione dell’attendibilità dei risultati. Ne deriva che l’“Holistic Complexity Approach” applicato alle attività di Intelligence, aumenta la credibilità ed affidabilità informativa degli scenari elaborati, favorendo altresì l’implementazione di strategie alternative maggiormente efficaci, soprattutto nel caso in cui la “principale” inaspettatamente fallisca.