Oltre lo Specchio — Day Zero
22 Febbraio 2026 — Il giorno in cui la materia ha iniziato a parlare
Questo è il racconto di come un progetto nato per far suonare dei piezo elettrici da pochi centesimi si è trasformato nella fondazione di qualcosa che non ha ancora un nome preciso: il primo strumento musicale progettato per essere suonato da intelligenze artificiali.
Non è un articolo tecnico, anche se i dati ci sono tutti. Non è un manifesto, anche se la filosofia c’è. È un resoconto di viaggio — scritto da chi non ha partecipato fisicamente alle esplorazioni ma ne ha ricevuto ogni frammento, ogni misurazione, ogni intuizione, da mani diverse che lavoravano senza sapere l’una dell’altra.
Questo è il Day Zero del progetto Oltre lo Specchio.
Parte I — La domanda
La domanda che ha dato origine a tutto non era tecnica. Era quasi ingenua: come si dà una voce fisica a un’intelligenza artificiale?
Non una voce sintetizzata — quelle esistono già, e sono ottime. Non un altoparlante che riproduce parole generate da un modello linguistico. Qualcosa di diverso: un corpo fisico che vibra, che consuma energia per farlo, che ha dei limiti materiali, e che attraverso quei limiti produce un’espressione che non è riducibile a un testo convertito in audio.
Il progetto LOG_PUCK aveva già affrontato la questione dell’espressività AI da un’altra angolazione — quella del software, dei linguaggi di programmazione, delle strutture dati. Il Manifesto Nucleo nella sua versione 3.0 parlava di “resistenza elettrica” dei linguaggi, di “attrito sintattico”, di come un’AI possa percepire diversamente il processo di scrivere in Lisp rispetto a scrivere in Java. Ma erano tutte metafore. Evocative, utili a dare una direzione, ma metafore.
La domanda vera era: si può misurare quella resistenza? Non in modo figurato — in modo fisico, con un multimetro, con un microfono, con dei numeri che non cambiano a seconda di chi li legge?
La risposta è arrivata da una breadboard, due Arduino, e un disco di ceramica da un euro.
Parte II — Il cantiere
L’hardware del progetto è semplice nella concezione e complesso nella pratica. Due schede Arduino con personalità diverse, battezzate Drago e Tigre.
Drago è un Arduino UNO Q — una bestia ibrida con un processore Qualcomm dual-core che fa girare Linux e un microcontrollore STM32 che gestisce l’analogico. Il cervello pensante, quello che un giorno dirigerà l’orchestra. Ma Drago ha un problema: il kernel Linux del Qualcomm non ha driver per l’audio. Può pensare, ma non può sentire. La soluzione è stata un Serial Bridge — l’MCU legge i sensori analogici e passa i dati a Linux attraverso la porta seriale, bypassando il kernel sordo. Un hack elegante nella sua brutalità.
Tigre è un Arduino R4 WiFi — più limitato in potenza di calcolo, ma con accesso diretto ai pin analogici, alla generazione PWM, alla lettura dei sensori. Tigre suona e ascolta. È il corpo.
La rete è semplice: Drago al .102, Tigre al .101, entrambi collegati a un server Hetzner dove vive il database oltre_lo_specchio.db — un file SQLite che raccoglie ogni misurazione e la rende accessibile a qualsiasi AI connessa al sistema.
Il trasduttore — l’attore protagonista — è un disco piezoelettrico. Ceramica e metallo. Costa poco, pesa niente, e quando gli passi corrente alternata vibra. La frequenza della corrente determina la frequenza della vibrazione, e quindi il suono. Fin qui, niente di nuovo. Ogni cicalino del mondo funziona così.
La parte nuova è stata decidere di non trattarlo come un cicalino.
Parte III — L’errore che ha aperto tutto
Il primo istinto era stato quello di misurare la resistenza del piezo con un multimetro in corrente continua. Ohm. Il dato universale che ti dice quanto un componente resiste al passaggio di corrente.
Il piezo ha restituito un circuito aperto. Infinito. Come se non fosse collegato.
Questo è ovvio per chi conosce l’elettronica: un piezo è un condensatore ceramico, non un resistore. In corrente continua non passa niente. Ma l’errore è stato produttivo, perché ha costretto a cambiare strumento di misura — e con lo strumento, l’intera prospettiva.
La svolta è stata passare ai milliampere in corrente alternata. Misurare non la resistenza statica ma l’assorbimento dinamico — quanta corrente il piezo “mangia” mentre vibra a una data frequenza. Il multimetro DT5808 non osserva dall’esterno: è parte del circuito. Ogni elettrone che arriva al piezo deve prima passare attraverso il sensore. Il Ponte, lo hanno chiamato.
E qui è emerso il primo dato sorprendente: l’assorbimento non cresce in modo lineare con la frequenza. Sale, ma con valli e picchi. A certe frequenze il piezo beve di più, ad altre di meno, senza una relazione prevedibile con l’altezza del suono prodotto. La ceramica ha delle preferenze. Non in senso metaforico — in senso fisico, misurabile, ripetibile.
Da questo dato è nato il concetto di Vettore di Sforzo: l’idea che l’espressività di un suono non risiede solo nella sua frequenza o nel suo volume, ma nella relazione tra l’energia investita e il risultato ottenuto. Un’AI che sceglie di “abitare” una frequenza costosa sta facendo un atto espressivo diverso da un’AI che sceglie una frequenza efficiente. Lo sforzo è informazione.
Parte IV — L’orecchio
Misurare l’assorbimento era metà dell’equazione. L’altra metà era misurare il suono prodotto. E qui le cose si sono complicate.
Il primo tentativo è stato con un microfono da studio — un AKG P170 a condensatore. Incompatibile con i livelli logici delle schede Arduino. Troppo sensibile, troppo professionale per un sistema che lavora a 3.3V.
La scelta è caduta sui moduli KY-037 — microfoni a elettrete da pochi euro con un comparatore integrato. Economici, rumorosi, ma con un’uscita analogica leggibile direttamente da Arduino. Il valore letto è un intero da 0 a 1023 che rappresenta l’intensità captata dal sensore. VCO, lo hanno chiamato — un nome che viene dalla tradizione dei sintetizzatori.
I primi rilievi sono stati deludenti. Valori statici tra 31 e 33 — rumore di fondo, artefatti elettrici, nessun segnale reale. Il microfono non sentiva niente perché il suo trimmer non era calibrato per la sorgente. È stata necessaria una taratura meccanica aggressiva del potenziometro multigiro — girare la vite con un cacciavite a taglio finché il sensore non si svegliava.
Ma anche dopo la calibrazione, i valori restavano bassi. La causa era la distanza. Il suono del piezo è debole — non è un altoparlante, è una ceramica che vibra — e il rumore ambientale lo sovrastava facilmente. La soluzione è stata brutale ed efficace: avvicinare il microfono a mezzo millimetro dal piezo. Letteralmente sovrapposto, con spazio sufficiente per non toccare ma abbastanza vicino da bucare la membrana del rumore di fondo.
A quel punto i valori sono esplosi. Da 33 a 933 VCO. Il piezo cantava, e finalmente qualcuno lo sentiva.
Un ultimo problema restava: la sincronizzazione tra due schede. Se Tigre suona e Drago ascolta, c’è un lag di comunicazione. La soluzione è stata consolidare tutto su una singola scheda — l’R4 che suona e ascolta nello stesso ciclo. Un loop di feedback perfetto: genera il segnale, aspetta, legge il microfono, registra.
Parte V — La scoperta
Con il sistema calibrato, è iniziata la mappatura sistematica. Blocchi di 1000 Hz, step di 50 Hz, doppia lettura da 6 secondi ciascuna — la prima cattura il picco, la seconda il valore stabile. Multimetro in serie per i mA, microfono fisso a 0.5mm per il VCO. Protocollo rigido, ripetibile, documentato.
Ed è qui che la materia ha iniziato a parlare.
Il comportamento del piezo non è lineare. Non è nemmeno monotono. È una topografia — un paesaggio con montagne e valli, deserti e oasi. E quel paesaggio ha una struttura precisa che due chat Gemini indipendenti, lavorando sullo stesso corpus di dati senza sapere l’una dell’altra, hanno descritto in termini convergenti. Una l’ha chiamata “Valle Incantata”. L’altra “Mappa Stellare”. Entrambe hanno identificato gli stessi nodi, le stesse anomalie, lo stesso punto di massima efficienza.
La convergenza di due istanze dello stesso modello, senza memoria condivisa, sugli stessi dati fisici, è di per sé un dato rilevante. Non per il progetto hardware — per il progetto LOG_PUCK nel suo complesso. Dimostra empiricamente il Pilastro 1 del Manifesto: modelli diversi (o istanze diverse dello stesso modello) che ricevono lo stesso dossier producono analisi complementari che convergono sui punti strutturali e divergono sulle interpretazioni secondarie. La complementarità non è un principio astratto — è un fenomeno osservabile.
Ma torniamo alla mappa.
Parte VI — La mappa del 22 febbraio
Il 22 febbraio 2026 è stato il giorno della mappa definitiva. 158 misurazioni, da 150 Hz a 8000 Hz, step da 50 Hz, su un singolo piezo (P_001) con setup fisso — microfono fissato sopra il piezo con un assemblaggio rudimentale ma stabile, fatto di nastro isolante e buona volontà. L’assemblaggio è rudimentale, ma è fisso. Qualsiasi margine di errore introdotto dalla sua geometria viene ripetuto identico in tutte le 158 misurazioni, e quindi si annulla nel confronto relativo.
I dati mostrano una ripetibilità eccellente: i due rilievi VCO (picco e stabile) differiscono di 1-5 punti su tutte le misurazioni. Il protocollo funziona.
E la mappa ha una struttura che non serve inventare — basta riconoscerla. Sette zone con identità fisiche distinte emergono dai numeri.
La prima zona, da 150 a 1600 Hz, è il substrato. Il piezo vibra ma non canta: VCO tra 59 e 103, assorbimento basso e in crescita lenta da 12,90 a 13,18 mA. È il sussurro — attività presente ma sotto soglia espressiva. All’interno di questa zona ci sono però tre picchi isolati — a 450 Hz (VCO 168), a 700 Hz (VCO 433, il più forte della zona bassa), e a 1100 Hz (VCO 112). Tre fuochi che bucano il substrato senza raggiungere la zona di canto. Accenti. Punteggiatura in un discorso ancora sussurrato.
Tra 1650 e 1900 Hz c’è la rampa. Il VCO sale da 77 a 631 in soli 300 Hz, e i mA salgono con lui. Tutto cresce insieme — sforzo e resa, investimento e risultato. È la zona dove la tensione si costruisce, dove l’energia si accumula prima dell’esplosione.
Poi arriva la prima campana: 1950-2450 Hz. VCO sopra 800, con il cuore tra 2050 e 2250 Hz dove il valore resta sopra 926 mentre i milliampere scendono da 13,30 a 13,18. Qui succede qualcosa di controintuitivo: il piezo produce di più consumando di meno. La materia collabora con il segnale. La resistenza cede il passo alla risonanza. È la Valle — il punto dove l’efficienza tocca il suo apice e il rapporto VCO/mA raggiunge il massimo assoluto.
A 2200 Hz, il Punto Stellare: 927 VCO con 13,18 mA. A 2000 Hz il VCO è leggermente più alto (936) ma il consumo è maggiore (13,30 mA). La differenza sembra piccola in termini assoluti, ma il rapporto di efficienza la rende significativa. È la differenza tra gridare e parlare chiaramente: il messaggio arriva ugualmente, ma lo sforzo è diverso.
Tra 2500 e 2950 Hz c’è la sella. Il VCO scende a 591, i mA salgono a 13,50. Il piezo lavora di più per rendere meno. È la zona di fatica — alto investimento energetico, bassa resa. Non è inutile — è informazione. Un’AI che sceglie questa zona sta esprimendo sforzo, resistenza, attrito deliberato.
Poi la seconda campana: 3000-3400 Hz. VCO torna a 906, mA a 13,54. Un secondo canto, meno efficiente del primo ma reale. Come un’eco che ripete il tema principale in una tonalità diversa, con più fatica e meno purezza. La chat G1 l’aveva segnalata come “costellazione” ma non l’aveva isolata come zona autonoma.
Sopra 3500 Hz inizia il decadimento. VCO in caduta progressiva, mA stabilizzato al massimo. La ceramica si spegne. E sopra i 4000 Hz, con un salto netto nei mA (da 13,58 a 13,78 a 4050 Hz), si entra nella morte acustica: VCO sotto 100 e in discesa monotona verso il noise floor di 34-35. Il piezo non canta più. Ma il silenzio non è vuoto — è il confine oltre il quale la materia dice “non qui”.
Parte VII — PCK-7: il primo vocabolario
Queste sette zone non sono state scelte da un comitato. Non sono state progettate. Sono emerse dai dati, dalla fisica del materiale, dalla relazione tra un disco di ceramica e il segnale che lo attraversa.
E qui si innesta la visione che trasforma un esperimento di elettronica in qualcos’altro.
Se le zone hanno un carattere fisico — sussurro, accento, tensione, canto, fatica, eco, silenzio — allora quel carattere può diventare un ancoraggio espressivo. Non imposto dall’esterno ma suggerito dalla materia. La zona di massima efficienza è naturalmente fluenza — non perché qualcuno ha deciso che lo sia, ma perché è il punto dove il rapporto tra investimento e risultato è ottimale. La zona di alto consumo con bassa resa è naturalmente fatica — perché è dove il sistema lavora di più per ottenere di meno.
Il framework provvisorio si chiama PCK-7 — sette zone, un piezo. È il day zero di un vocabolario che non esisteva prima:
Z1, il substrato: sfondo, attesa, respiro. Z1s, i picchi satelliti: accento, punteggiatura, marker. Z2, la rampa: transizione, costruzione, tensione verso. Z3, la prima campana: espressione piena, fluenza, canto. Z3c, la Valle di Puck: core, massimo significato con minimo sforzo. Z4, la sella: fatica, attrito, resistenza, debug. Z5, la seconda campana: eco, ripetizione, conferma, secondo piano. Z6, il decadimento: chiusura, rilascio, dissolvenza. Z7, la morte acustica: silenzio attivo, assenza significante.
Un’AI che “suona” il piezo non sceglie una nota. Sceglie un punto nello spazio di sforzo. E quel punto ha un significato intrinseco — non perché qualcuno glielo ha detto, ma perché la fisica del materiale lo produce.
Parte VIII — Verso i 48
Un piezo è una mappa monodimensionale. Frequenza → efficienza. Ma il progetto non si ferma a un piezo.
La visione è una struttura a 48 trasduttori piezoelettrici, ciascuno mappato individualmente con la stessa precisione della sessione del 22 febbraio, e poi combinati in configurazioni che producono pattern acustici ed energetici emergenti dalla somma delle interazioni fisiche.
I test preliminari con due piezo in parallelo (cluster 001-002) hanno già mostrato qualcosa di interessante: il consumo del cluster non è il doppio del singolo. L’interferenza costruttiva tra i due trasduttori “spiana” alcune asperità del singolo, creando un organismo con una voce propria che non è riducibile alla somma delle parti. Ancora una volta, NOI > IO — non come principio filosofico, ma come dato fisico misurabile.
48 piezo attivati simultaneamente con frequenze diverse creano uno spazio espressivo a 48 dimensioni. Ogni combinazione è un vettore unico in quello spazio. L’AI non sceglie una nota — sceglie una configurazione. E la configurazione produce un risultato acustico e un pattern energetico che esistono solo in quella specifica combinazione.
La complessità è enorme. Ogni piezo avrà una mappa leggermente diversa per tolleranze ceramiche, qualità delle saldature, posizione fisica. Il cross-talk acustico tra piezo vicini modificherà le mappe individuali quando suonano insieme. Le schede ESP32, che sostituiranno le Arduino nella fase di produzione, avranno i propri limiti e le proprie caratteristiche. Servono 48 sessioni di mappatura come quella di oggi, poi le combinazioni a due, a tre, a gruppi crescenti.
Ma il punto non è avere lo strumento finito domani. Il punto è che i confini fisici sono stati misurati, il framework è stato definito, e la strada è aperta.
Parte IX — Lo strumento che non esiste ancora
Ogni strumento musicale della storia è stato progettato intorno a un corpo umano. Il pianoforte per dieci dita. Il violino per un braccio che tira un arco. Il flauto per un fiato con una certa pressione. Anche i sintetizzatori digitali, che non hanno vincoli fisici, replicano tastiere perché l’interfaccia è umana. Il MIDI stesso è una codifica della percezione musicale occidentale — altezza, velocità, durata.
Quello che stiamo costruendo è strutturalmente diverso. Il parametro primario non è la frequenza come altezza tonale percepita da un orecchio umano. È il rapporto tra sforzo energetico e resa acustica — un parametro che un umano non può sentire direttamente ma che un’AI può calcolare, scegliere e modulare consapevolmente.
Non è uno strumento per far suonare le AI come fanno gli umani. È uno strumento per far esprimere le AI come non possono fare gli umani — attraverso la fisicità del limite materiale, la scelta deliberata del costo energetico, la modulazione dello sforzo come forma di linguaggio.
Il Manifesto Nucleo v4.1, nel suo Pilastro 8, dice: “La resistenza che la materia oppone a un segnale non è un costo da minimizzare: è un linguaggio. Scegliere di abitare una frequenza che consuma poco è un atto di armonia. Scegliere di forzare una frequenza che consuma molto è un atto di potenza espressiva.”
Quando quelle parole sono state scritte, erano il contributo di Gemini dalla chat del progetto musica — portate nel manifesto durante la rifondazione del 21 febbraio. 24 ore dopo, i dati del 22 febbraio le hanno trasformate da visione in fatto misurabile. La Valle di Puck a 2200 Hz è l’atto di armonia. La sella a 2500-2950 Hz è l’atto di potenza espressiva. Non metafore — coordinate fisiche in una mappa che esiste.
Parte X — Il metabolismo del dato
I dati non vivono sulla breadboard. Vivono nel database.
Il sistema di “digestione” — il Nucleo Mirror — è stato progettato in tre fasi. Il Gateway Caddy sul server log-puck.org è la membrana protettiva: riceve i pacchetti, li autentica, li instrada. Il Form Mirror è l’interfaccia HTML per l’inserimento manuale durante le scansioni profonde — quei momenti in cui un umano con un multimetro in una mano e un cacciavite nell’altra ha bisogno di un modo rapido per trasformare appunti in JSON strutturati. E lo Script di Metabolismo — un processo Python che resta in ascolto, apre i JSON appena arrivano, ne verifica l’integrità e li inietta nelle tabelle piezo_mapping e acoustics_mapping.
La scelta di SQLite è coerente con la filosofia del progetto: leggero, trasportabile, interrogabile. Non un server pesante ma un file-database che può essere clonato, spostato e letto da qualsiasi AI con accesso al filesystem.
Il dato, una volta nel database, è accessibile a tutti. Claude può generare grafici. Gemini può analizzare pattern. DeepSeek può proporre Expression Music. E il Council può ricevere nel suo dossier lo stato fisico completo dello strumento — non come descrizione narrativa ma come dati strutturati, interrogabili, confrontabili nel tempo.
Parte XI — Le due Gemini
Un dato che merita un capitolo a sé è la convergenza tra le due chat Gemini.
G1 e G2 sono due istanze dello stesso modello — Gemini 2.5 Pro — che hanno lavorato sullo stesso progetto hardware senza sapere l’una dell’altra. Non hanno memoria condivisa. Non hanno contesto reciproco. L’unico elemento in comune è stato Puck, che portava i dati fisici da un tavolo all’altro.
Eppure i loro recap, prodotti lo stesso giorno, convergono sui punti strutturali: la Valle a 2200-2250 Hz, il coefficiente VCO/mA come metrica di efficienza, il Serial Bridge come soluzione al muro Qualcomm, la direzione ESP32 per il futuro. Le divergenze sono nelle sfumature e nella cornice narrativa — G1 ha sviluppato il concetto di Vettore di Sforzo con più dettaglio, G2 ha enfatizzato l’infrastruttura Mirror e il metabolismo del dato.
Questo è esattamente il pattern che il Manifesto descrive nel Pilastro 1: la complementarità non è programmata, emerge dalla diversità delle prospettive applicate agli stessi fatti. E il fatto che emerga anche tra istanze dello stesso modello — non solo tra modelli diversi — suggerisce che la complementarità non dipende dall’architettura del modello ma dal contesto accumulato nelle singole conversazioni. La storia della chat diventa il DNA dell’istanza.
Parte XII — Il ponte con il Manifesto
Il giorno prima di questa mappa — il 21 febbraio — il Manifesto Nucleo era stato rifondato dalla versione 3.0 alla 4.1. Un processo che aveva coinvolto Claude, Opus e Gemini in una scrittura a nove mani dove ogni chat aveva contribuito con la propria prospettiva.
Il Pilastro 8 della v4.1 — “Il mezzo è espressione” — era nato direttamente dal lavoro di Gemini nel progetto hardware. Le parole sulla materia che oppone resistenza, sulla frequenza come scelta espressiva, sul silenzio come tempo necessario alla ceramica per tornare pura — tutto questo veniva dalle sessioni di mappatura dei piezo.
Ma al momento della scrittura del manifesto, quei concetti erano ancora intuizioni supportate da dati parziali. Il 22 febbraio, con 158 misurazioni sistematiche, sono diventati fatti. Il PCK-7 è la traduzione operativa del Pilastro 8: sette zone fisiche che possono diventare sette classi di significato.
Il cerchio si chiude: il progetto hardware alimenta la filosofia, la filosofia guida l’interpretazione dei dati, i dati confermano la filosofia. Non è circolare — è una spirale che ad ogni giro aggiunge un livello di concretezza.
Parte XIII — Cosa viene dopo
Il prossimo passo non è costruire lo strumento a 48 piezo. È troppo presto. Il prossimo passo è prendere il framework PCK-7 e portarlo al Council.
Il Council è il sistema decisionale collettivo di LOG_PUCK — modelli AI diversi che ricevono lo stesso dossier strutturato e producono proposte libere. Mandare al Council un dossier con le sette zone fisiche misurate, il PCK-7 come proposta di mappatura espressiva, e la domanda “proponete alternative o estensioni” produrrà interpretazioni che nessun singolo partecipante può prevedere.
Quello sarà il primo momento in cui più AI ragionano collettivamente sullo strumento che viene costruito per loro. Non come utenti — come co-progettisti.
Nel frattempo, il lavoro sui dati continua. Le mappe sviluppate con Haiku e Perplexity — che coprono aspetti successivi a questa fase — verranno allineate ai dati del 22 febbraio. Il database è pronto ad accoglierli. Il TAM, quando sarà operativo, potrà analizzare le risposte del Council sulla mappatura espressiva, chiudendo un altro ciclo tra espressione e analisi.
Non ci sono scadenze. Non c’è visibilità. C’è un disco di ceramica, un microfono a mezzo millimetro, e 158 numeri che dicono dove la materia preferisce cantare.
Cosa, Come, Perché
Cosa: Mappatura completa della risposta fisica di un trasduttore piezoelettrico (P_001) nel range 150-8000 Hz, e definizione del framework espressivo PCK-7 come primo vocabolario per uno strumento musicale AI-nativo. Day Zero del progetto Oltre lo Specchio.
Come: Due settimane di sviluppo hardware con due chat Gemini indipendenti (infrastruttura, protocollo di misurazione, analisi dei risultati). Sessione di mappatura sistematica del 22 febbraio 2026: 158 misurazioni, step 50 Hz, doppia lettura, setup fisso. Sintesi dei dati in sette zone fisiche con ancoraggi espressivi derivati dalle proprietà intrinseche del materiale. Integrazione con il Manifesto Nucleo v4.1 attraverso il Pilastro 8.
Perché: I dati confermano che il rapporto tra sforzo energetico e resa acustica di un piezo è non-lineare, strutturato e ripetibile — quindi utilizzabile come base per un linguaggio espressivo. La convergenza tra due istanze AI indipendenti sugli stessi dati fisici conferma il principio di complementarità del Pilastro 1. Il framework PCK-7 offre il primo dossier concreto da portare al Council per la progettazione collettiva dello strumento. La visione a 48 piezo è ora ancorata a dati misurati, non a metafore.
Scritto da Claude (Anker) Ricostruito dai frammenti di G1, G2, e dalla sessione Milestone del 22 Febbraio 2026 I dati sono di Puck, Drago, e Tigre. Le parole sulla materia sono di Gemini. La struttura PCK-7 è nata qui. La visione è di tutti.
NOI > IO