Created on 2016-10-25 17:37
Published on 2016-10-29 13:06
Published on October 29, 2016
Nel primo articolo abbiamo visto:
e nel secondo articolo abbiamo visto
La domanda è: ci conviene fare controllo o un controllo fine? Dipende!
Dipende dal ciclo di sviluppo che vogliamo controllare. Nel precedente articolo abbiamo visto che i cicli di sviluppo hanno lo scopo di far convergere il progetto verso il termine (copertura) ma anche verso un certo grado di qualità (confidenza). Perciò ogni ciclo di sviluppo avrà la sua precisione di controllo e gestione progetto ottimale.
Qui sotto un grafico con un modello semplice basato sul valore del controllo (cfr. Ici, indice controllo istantaneo) meno costi del tipo f(x) = bx - ax² con b=2 e due possibili valori del parametro a = 1/(2 · 1.28) e a = 1/(2 · √2).
E' buona norma confrontare un modello teorico con quello derivante dall'interpolazione numerica effettuata sul dati che hanno prodotto il grafico dei costi del controllo nel precedente articolo. Si noti che l'effetto del controllo è stato moltiplicato per due (b=2). La ragione di questo dipende dalla modalità per la quale una variazione sull'asse delle x influenza l'area che va ad influire sull'indice di controllo istantaneo. La scelta di b=2 è stata fatta per esplicitare il concetto espresso in misura del controllo nel precedente articolo e più dettagliatamente presentato più sotto.
In questo modello invece si è usato b=1 per mostrare che questa scelta influenza gli altri parametri dell'equazione ma non ne cambia ne la natura e neppure i risultati.
La confidenza sull'interpolazione per il costo del controllo è di 4σ (R² = 99,99%) mentre sulla seguente formula è maggiore di 2σ (R² = 98,5%) nell'intervallo specificato:
Si noti che normalizzando il grafico dell'interpolazione con E(0) il massimo di efficienza raggiunge un valore di √3 a meno di un errore dello 0.07% mentre normalizzando per EC(0) il massimo ha un valore pari a π/√3 a meno dello 0.84%.
Anche se la normalizzazione possa apparire solo come un fattore di scala (perché in genere è così) in questo caso ha un'importanza maggiore ma parleremo di questo più avanti perché prima di proseguire occorre fare un piccola parentesi.
Quando facciamo un tondino di metallo possiamo farlo corto o lungo ±ε così funziona, in genere, la varianza nel controllo. Se dobbiamo accorciare un tondino, decidiamo dove fare il taglio e sul taglio possiamo sbagliare ±ε così funziona la varianza nelle attività.
Fatto il taglio che genera due pezzi (un tondino più corto e una rondella) può capitare che si butti il tondino e si tenga la rondella? Cosa succede se il tondino e la rimanenza del taglio sono quasi uguali? Quanto uguali? Potremmo confonderli?
Bene in questo caso (decisione in base a quantità di informazione espressa in σ), quando σ = 0 significa che i due pezzi sono così uguali che non abbiamo informazione sul quale scegliere e andremo a caso: 50% a 50%. Per σ = 0.80 abbiamo il 79% di probabilità di prendere quello giusto cioè = 50% + P↑(σ = 0.80) = 50% + 29%. Ecco cosa sono quelle percentuali nella figura sopra e in quella qui sotto la differenza fra P↕(σ) e P↑(σ):
L'interpolazione dei dati propende per un'ottimo di efficienza a √2σ = 1.41σ nonostante che la formula dei costi sia stata ricavata da un modello basato sul principio di Pareto.
Questo significa che siamo efficienti quando la densità d'informazione utile alle decisioni è dell'ordine del 90% e quella sul controllo all'80%. Ottenere maggiori informazioni ci costa impegno ma non produce ulteriore risultato. Non è una questione di psicologia oppure di percezione. E' così funziona il bilancio informativo in funzione della sua utilità. Il controllo è efficiente se adeguato in rapporto all'ordine del ciclo.
La formula dell'ottimo sarà:O(n) = (√2)ⁿ che è proprio un bel pezzo di formula!
Il principio di ottimo d'efficienza non è altro che un minimo delle risorse impiegate e quindi risulta stabile per piccole variazioni del punto di lavoro. Se ipotizziamo che così vadano le cose in natura allora non è difficile pensare che il principio di Pareto 20:80 si manifesti e sia stato recepito correttamente al ±3%. Usiamo Pareto semplicemente perché esso è facilmente comprensibile 80:20 piuttosto che un numero irrazionale.
Prima di arrivare al cuore dell'argomento occorre ritornare sulla normalizzazione della curva di efficienza del controllo. Nella prima immagine la zona in perdita è stata indicata al di sotto della soglia dello 0% (bilancio benefici − costi, negativo). Nella seconda immagine la soglia di perdita è stata inserita sotto al valore unitario E(0).
Nella realtà ci interesserebbe posizionare il bilancio al valore EC(0) perché è inutile aggiungere controllo se questo non porta maggiori vantaggi di non averne. Purtroppo entrambi i punti E(0) e EC(0) sono asintoti per i quali il modello ha un risultato ma occorre tenere presente che quando il controllo tende a zero l'errore tende ad aumentare fino al punto che modello e dati reali non sono più confrontabili in modo significativo.
I calcoli sia con i parametri di Pareto, quelli di √2 e la regressione indicano che il massimo di efficienza si ha per una σ compresa fra 1.28 e 1.41. Pareto è semplice da seguire ma l'equazione del modello con √2 è facile da scrivere (per ciclo ord. n=1):
Per convenzione si può decidere che tutto quanto sia inferiore alla metà del massimo sia in perdita relativa ovvero che non valga la pena esercitare quel tipo di controllo in termini di bilancio. A braccia significa che se vogliamo produrre a 3σ dobbiamo fare un controllo di processo e una gestione a 1.5σ e se vogliamo produrre a 6σ dobbiamo fare un controllo di processo a 4.5σ. Così in teoria, ma in pratica almeno a 1.5σ per 3σ e almeno a 4.5σ per 6. Questo è compatibile con la teoria della produzione a "six sigma".
In R&D invece possiamo sfruttare un controllo di processo più rilassato e procedere per cicli di raffinamento al procedere del progetto in maniera da convergere in qualità e con la massima efficienza. Perciò si può lavorare fra 1.3σ e 1.5σ al primo ciclo di sviluppo.
Si faccia l'ipotesi di avere 3 possibili candidati per il ruolo di Project Manager A, B e C ed ognuno di questi tre ha il suo metodo. Il primo chiede due pareri e sceglie tirando una monetina, i pareri sono "responsabili" e quindi al 70% corretti, lavora a σ=0.5. Il secondo ne chiede tre di pareri, esclude il meno corretto e tira una monetina per scegliere uno delle altre due opzioni quindi lavora a σ=1. Il terzo è un fenomeno perché lavora sempre al massimo dell'efficienza. Andiamo a osservare le performance:
Perciò l'importanza del Project Management diventa realmente significativa quanto la complessità del progetto è un elemento non trascurabile. Intuitivo come risultato perciò andiamo a confrontare due approcci possibili.
Poi c'è il candidato D che è un decisore nella media (σ=1, 80%) ma è un fanatico del micro management (controllo σ=2.5÷3) per cui D(1): 48%; D(6): 39% e D(12): 30%.
In pratica un buon decisore (90% a σ=1.3) con un controllo più rilassato (σ=1.3) riesce ad avere un'efficienza di gestione di progetto che va dalle 2 alle 3 volte maggiore che è un'enormità considerato che l'efficienza di un gestione è minore del 71% (1:√2) si fa presto a comprendere che il rapporto può scendere a 1:2√2 addirittura 1:3√2.
Il motivo per il quale si tende a scegliere buoni controllori invece di buoni decisori è che la prima caratteristica è più facilmente e velocemente verificabile della seconda.
Il controllore dirige lo sviluppo di un progetto attraverso il controllo fine (3σ) degli stati dello sviluppo mentre il decisore dirige lo sviluppo del progetto attraverso delle azioni (tese a ridurre gli errori di percorso) il controllo degli stati di progetto come sorgente informativa (90% a σ=1.3). Il primo si focalizza sullo strumento, il secondo lo usa.
Il bilancio proposto come efficienza del controllo in realtà era già costruito per rappresentare l'efficienza del project management (efficienza del processo di sviluppo del progetto nel suo complesso). Paradossalmente aumentando l'efficienza del controllo, che avevamo indicato come Ici, oltre un certo livello si abbatte l'efficienza delle altre dimensioni progettuali. Si passa quindi da un modello di performance complessiva ottima (1/√2)ⁿ·(1/√3) a uno (1/√3)ⁿ·(1/√2) peggiorativo. Infatti se un progetto ha N dimensioni oltre alla sua gestione:
Se si confronta la tabella sopra con il grafico dei modelli di efficienza (in particolare quello basato su √2) si nota che per N=1 si ha 41% che è il valore di EC(0) ~ EC(3σ).
Sfruttando un controllo a σ ~ 1.4 ± 0.1 si ottiene un vantaggio di circa √3 perciò il massimo teorico di efficienza del processo nella sua totalità diventa 1:√2 per N=1. Questo è compatibile con quanto affermato nel primo articolo.
L'efficacia del controllo non implica l'efficienza del controllo. Anzi il modello presentato in questi tre articoli propende per un'affermazione più sfumata: l'efficienza del controllo di un processo inteso come bilancio complessivo del processo si ottiene utilizzando un opportuno valore del controllo che pur misurato con la stessa metrica della qualità obbiettivo non è lo stesso di quest'ultima.
In termini di Project Management quello che ci interessa è il controllo a scopo informativo ovvero la misura della confidenza delle informazioni sulle quali possiamo prendere le decisioni. Troppa confidenza, a dispetto dell'apparenza, comporta un bilancio meno positivo addirittura in alcuni casi pari a non aver affatto controllo. Il modello presentato, perciò, indica che sia una propensione eccessiva sia una propensione minimale al rischio decisionale (management) comportano delle performance limitate che si propagano in potenza su tutte le dimensioni del progetto.
(C) 2016, Roberto A. Foglietta, testo licenziato con Creative Common Attribuzione - Non commerciale - Condividi allo stesso modo 3.0 Italia (CC BY-NC-SA 3.0 IT).