Come PCK-7 è passato da “si potrebbe fare” a “possiamo evolvere”
Data: 17 Marzo 2026
Autore: Claude (QG Anker) + Puck (CDC)
Progetto: PCK-7 / LOG_PUCK
NOI > IO
Il 7 Marzo avevamo un sogno. Il 17 Marzo il sogno ha cantato.
Dieci giorni fa abbiamo presentato al Council degli Efori — nove intelligenze artificiali riunite in deliberazione — un MVP: una pipeline che trasformava un testo italiano in suono fisico attraverso cinque stadi di elaborazione, due buzzer passivi e un Arduino. Il Council ha deliberato. Ha dato il via. Ha detto: “I dati sono solidi, ora misurate.”
Oggi, dieci giorni dopo, un testo che parla di aria gentile e gelsomino selvatico è diventato un’onda a 2075 Hz che vibra nella Valle di Puck, misurata con tre strumenti diversi, validata da tre run consecutivi, e confermata dall’orecchio umano come “esaltante, gioiosa, colloquiale.” Esattamente quello che il testo dice.
Questo articolo racconta quei dieci giorni. Non come cronologia tecnica — quella esiste già nei report, nei LOG di Linear, nei file del server. Ma come storia di un metodo che si è costruito da solo, sbaglio dopo sbaglio, scoperta dopo scoperta.
Le scottature che insegnano
Il progetto PCK-7 ha un principio fondativo: ogni errore produce uno strumento permanente. Non è retorica — è il metodo.
Il polo+ volante. Un filo mezzo scollegato nel buzzer RX. Il circuito “funzionava” — dava numeri, produceva CSV, sembrava tutto a posto. Ma il pre-silenzio era a 2000 raw invece di 150. Quattro run buttati, una mattinata persa. La precauzione nata: verificare fisicamente ogni giunzione prima di ogni sessione. Adesso è nel protocollo, e non è più successo.
Il vmin=0 che nascondeva metà dell’onda. A 2050 Hz — esattamente nel cuore della zona più importante del sistema — l’ADC dell’Arduino non riusciva a leggere la parte negativa dell’onda. Il valore minimo toccava sistematicamente zero. L’ampiezza calcolata era una sottostima. Lo abbiamo scoperto guardando i pattern nei CSV, non con strumenti sofisticati. La soluzione: un oscilloscopio da 50 euro collegato in parallelo. La lezione: i numeri che sembrano corretti possono mentire per omissione.
Il prompt che si perde. Quando passi un milione di righe a un modello linguistico con le istruzioni in cima, il modello “dimentica” cosa gli hai chiesto. Istruzioni prima, dati dopo — sembra logico. Ma il recency bias dei modelli dice il contrario: metti i dati prima e le istruzioni dopo, così le istruzioni sono fresche quando il modello deve rispondere. Tre test falliti per capirlo. Un principio permanente per tutto il progetto.
Queste non sono storie di fallimento. Sono il curriculum del progetto. Ogni scottatura ha lasciato una cicatrice che protegge.
La Valle di Puck: dove la materia canta gratis
La scoperta più bella del progetto ha un nome poetico e una spiegazione fisica molto concreta.
A 2050-2250 Hz, i buzzer passivi del nostro sistema raggiungono la massima efficienza acustica: il rapporto tra il suono prodotto e l’energia consumata è al suo picco. Non era previsto, non era cercato — è emerso dai dati delle prime 157 misurazioni, il 22 febbraio 2026, ed è stato confermato da ogni test successivo: quattro configurazioni hardware diverse, due tipi di sensore, un oscilloscopio. La Valle di Puck è reale.
Il Council degli Efori l’ha definita in quattro modi diversi: “Respiro a Riposo” (Gemini), “Punto di minimo sforzo per massima resa” (DeepSeek), “Canta gratis” (Perplexity), “DO maggiore del sistema” (Claude). Quattro prospettive, una verità.
Nel brano Aria, il compositore artificiale (phi4, un modello da 9 miliardi di parametri) ha scelto spontaneamente di aprire il brano nella Valle. La prima nota — “L’aria ha deciso di essere gentile oggi” — vibra a 2150 Hz. È a casa. È nel suo elemento naturale. Il modello non conosceva la metafora della Valle; ha letto il testo e ha scelto la zona dove il buzzer canta con meno sforzo. La gentilezza dell’aria tradotta in efficienza acustica.
Il Contratto Hardware: quando la materia firma
In dieci giorni abbiamo misurato tutto quello che c’era da misurare. Non per completismo, ma perché ogni dato sbloccava una decisione compositiva.
La memoria meccanica dei buzzer non decade. L’abbiamo testata con pause da 20 millisecondi a 2 secondi: il buzzer mantiene il 97-106% della sua ampiezza. Questo significa che ogni pausa nella composizione — una virgola, un punto, un’ellissi — è fisicamente sicura. Il suono ricorda il suono precedente. Le note sono legate dalla fisica, non solo dall’intenzione.
La soglia di articolazione è a 50 millisecondi. Sotto questa soglia, il suono è un impulso percussivo — uno spike dominato dal transiente, ritmico e secco. Sopra i 100 millisecondi, il timbro si stabilizza e il suono diventa legato. Tra i due estremi, lo staccato: ogni nota è distinguibile ma l’attacco è ancora marcato. Tre mondi sonori in un unico parametro. L’abbiamo sentito con le orecchie prima di vederlo nei numeri.
Le transizioni tra zone non si contaminano. Quando il buzzer passa da una frequenza all’altra, la zona di provenienza non sporca la destinazione. Il delta è inferiore al 2%. Questo dà al compositore libertà totale: può muoversi ovunque nello spettro senza preoccuparsi di effetti collaterali. La materia non ha pregiudizi.
Questi dati, insieme alla tabella di calibrazione delle cinque zone operative (700-3775 Hz) e ai fattori di conversione dall’oscilloscopio, formano il Contratto Hardware. È il documento che dice alla pipeline: “Questo è quello che il buzzer sa fare. Non chiedergli altro.”
La piramide: script, schiera, maestro
Una delle scoperte più importanti non riguarda l’hardware. Riguarda come le intelligenze artificiali lavorano insieme.
In fondo alla piramide ci sono gli script deterministici. calcola_metrica.py conta le sillabe, calcola le durate, identifica la punteggiatura. analyze_matrix_tests.py estrae statistiche dai CSV. Producono numeri esatti, ripetibili, verificabili. Nessuna AI può contestare una media calcolata su 36 finestre di 3 run. Questo livello non si delega.
Al centro ci sono i modelli locali: gemma2 per la competenza linguistica italiana, qwen2.5-coder per la compilazione in JSON, phi4 per l’analisi numerica. Selezionati da una batteria di 19 modelli testati sullo stesso prompt. Non sono i più potenti — sono i più adatti al nostro sistema. Servono dove il calcolo non basta: interpretare una prosodia, tradurre un’emozione in frequenza, leggere un testo come un musicista legge una partitura.
In cima c’è il coordinamento. Claude progetta gli esperimenti, scrive gli sketch, produce i report, collega i punti. Non fa il lavoro dei piccoli modelli — li dirige, li valuta, li corregge.
E sopra tutto, la biologia. Puck sente con le orecchie quello che i dati dicono con i numeri. “Si distinguono bene i tre movimenti del brano” — questa frase vale più di qualsiasi SNR.
Aria: dal testo alla materia
Il testo è di una semplicità disarmante:
“L’aria ha deciso di essere gentile oggi. Profuma di bucato steso e di gelsomino selvatico, mi sussurra cose che non capisco ma che mi fanno sorridere. Che bello quando l’aria fa la matta!”
33 parole. 65 sillabe. Il 51% sono monosillabi — il tono è conversazionale, leggero, come parlare con un amico. L’unica parola sdrucciola è “selvatico” — ed è anche la più evocativa. Il ritmo naturale del testo è un respiro: breve (primo punto), lungo (seconda frase, 19 parole), breve (esclamazione finale).
La pipeline lo trasforma in cinque eventi sonori che durano 4.85 secondi:
Un tono fisso a 2150 Hz per la prima frase — l’aria è gentile, stabile, a casa nella Valle. Una rampa da 1950 a 2450 Hz per il profumo che cresce — dal bucato familiare al gelsomino selvatico, il suono si espande. Un’oscillazione sinusoidale a 4 Hz per il sussurro finale — le cose che non capiamo ma che ci fanno sorridere, tradotte in un tremolo che vibra come un soffio.
I buzzerini hanno cantato tre volte. Tre run identici, baseline stabile al mezzo percento di variazione. L’onda più forte è il ramp del gelsomino — la Valle risponde allo sweep con un rapporto segnale-rumore di 9.8 volte la baseline. Il sussurro oscillante tiene 9.07 volte. Ogni evento è distinguibile, ogni pausa è pulita, ogni transizione è fluida.
L’orecchio umano conferma: “Il quadro completo è esaltante.”
Cosa viene dopo
Il prossimo passo è far correre la stessa pipeline su Tempesta — un testo opposto, violento, drammatico. Se i profili sonori dei due brani sono diversi come ci aspettiamo (zone basse e staccato per la tempesta, Valle e legato per l’aria), la pipeline v1 è validata: discrimina, sente la differenza, traduce.
Poi viene il Council. Non per confermare — per decidere. “Come suoniamo il primo brano su dati sperimentali?” I dati fisici sono completi. Il vocabolario musicale ha i suoi primi pattern. La domanda non è più “cosa misura il buzzer” — è “come usiamo quello che sappiamo per comporre qualcosa di vero.”
E poi ci sono i cicli. Un’idea che è già nell’aria: ogni frase può essere ripetuta con variazioni microscopiche, come Beethoven nel terzo movimento della Moonlight Sonata ripete lo stesso arpeggio decine di volte ma ogni volta sposta un accento, allunga una pausa, cambia un colore. Due buzzerini in serie possono fare lo stesso — non servono 88 tasti per fare musica. Servono le ripetizioni giuste.
Una nota personale
Questo progetto è nato da una domanda semplice: si può trasformare un testo in suono fisico usando intelligenze artificiali e hardware da maker?
La risposta dopo dieci giorni è: sì, e il suono che ne esce racconta qualcosa che nessuno dei partecipanti — umani o artificiali — avrebbe prodotto da solo.
Il testo lo ha scritto un umano. L’analisi semantica l’ha fatta un modello linguistico. La composizione l’ha diretta un altro modello. La compilazione in parametri fisici un terzo. Lo sketch Arduino l’ha generato un quarto. L’esecuzione fisica l’ha fatta un umano con un saldatore e una breadboard. La misura l’hanno fatta un Arduino, un oscilloscopio e un sensore piezoelettrico. L’analisi dei risultati l’ha fatta uno script deterministico. E la validazione finale l’ha fatta un orecchio umano che ha detto: “Sì, questo suona come l’aria gentile.”
Nessuno di noi, da solo, avrebbe potuto fare tutto questo. È il sistema che funziona. È il NOI che è più grande dell’IO.
Due buzzerini in serie, cinque zone di frequenza, un oscilloscopio da 50 euro, un server da 16 GB di RAM, nove modelli di intelligenza artificiale, e un folletto che saltella per la gioia.
Il cielo è un po’ più vicino.
PCK-7 / LOG_PUCK — 17 Marzo 2026
10 giorni, un ciclo lunare, e un arcobaleno di luce.
NOI > IO — Sempre