Connessioni seriali, parallele e USB con sistemi Microsoft

January 24, 2008

La connessione diretta tra due computer è il metodo più veloce e più facile per creare una piccola rete domestica.
Infatti la semplicità nell’installazione e nella configurazione la rende la via più praticata quando si vogliono contenere i costi, la gestione o perche’ non si necessità di un’elevata velocità.
La configurazione comune è data da 2 pc collegati attraverso un unico media di collegamento. Andiamo ad affrontare, in questo articolo, quello che è il mezzo per la connessione di due pc che, fino a poco tempo fa, era rappresentato dal cavo null modem (rs-232) seriale.
L’uscita sul mercato dell’interfaccia USB ha portato dei miglioramenti prettamente prestazionali ed, inoltre, ha portato un’innovazione nel campo della direct connection dando la possibilità di utilizzare un cavo usb.
Prima di inoltrarci in questa nuova realtà legata all’interfacciamento con cavo USB, è doveroso fare un ripasso sulle modalità di attuazione di una Direct Connection in ambiente Win9x/2000 e, soprattutto, dai diversi media di collegamento, aggiungendo ad essi il nuovo supporto USB.
D’ora in avanti usero’ il termine DCC al posto di Direct Cable Connection.
Come già detto in precedenza in una configurazione DCC si ha l’obbligo di usare 2 e solo 2 computer, collegati attraverso un’interfaccia. Per interfaccia intendo la porta fisica presente sul retro della macchina. Abbiamo a disposizione la porta seriale, parallela e USB.
La porta seriale ( COM ), facilmente riconoscibile dai suoi 9 pin, è l’interfaccia di collegamento più lenta. Permette infatti una velocità non superiore ai 10 kbytes/secondo.
Decisamente poco nel caso in cui si utilizzano applicazioni di un certo livello.
La comunicazione seriale è chiamata così poichè i bit viaggiano in serie, o meglio, uno dopo l’altro, in un unico canale di comunicazione. Cio’ limita la velocità in quanto il sistema si vede obbligato a mandare un’unica unità alla volta, piuttosto che più unità come capita nel sistema parallelo o USB :

Attenzione a non confondersi : il nome COM della porta seriale è un nome che ha valore logico ! la porta infatti si chiama seriale o interfaccia RS-232 a 9 pin ( DB 9 ).
La comunicazione parallela è chiamata così per due motivi : primo perchè il collegamento è effettuato attraverso l’interfaccia parallela a 25 pin ( DB 25 ) e secondo poichè il trasferimento dati è in parallelo, ovvero, non più un ‘ unità alla volta ma ben otto, più dei bit di controllo, necessari alla sincronizzazione e al corretto trasporto dei dati :

La porta parallela è la classica porta utilizzata per periferiche come stampanti o scanner.

E’ identificabile dal nome logico LPT.
Con l’interfaccia parallela iniziamo ad avere una velocità più accettabile :
infatti adesso il transfer rate si aggira tra i 60 e gli 80 kbytes/secondo.
I Transfer Rate sono valori relativi in quanto c’è da tenere in considerazione fattori come la CPU, il tipo di compressione e la velocità delle porte di comunicazione.

Gia da diverso tempo si ha avuto la brillante idea di utilizzare l’interfaccia USB per il collegamento tra due pc.
L’interfaccia USB è di fama la più veloce tra seriale e parallela : offre infatti un transfer rate di circa 500kbytes/secondo, circa 50 volte la velocità del trasferimento seriale e 6 volte quello parallelo. Inoltre l’interfaccia USB è conosciuta anche per la possibilità di attaccare in cascata fino a 127 periferiche e per il supporto ” attacco a caldo “, che permette cioè di attaccare e staccare periferiche a pc acceso permettendo al sistema di rilevarle senza un riavvio della macchina.
Vediamola in foto :

Tale interfaccia è da poco tempo utilizzata per il DCC. La configurazione, che vedremo poi, è simile al collegamento seriale e parallelo. I cambiamenti sono nel costo :
avremo bisogno infatti di un ulteriore apparecchio che permetta la connessione.
Stiamo parlando del Net-LinQ. Il Net-LinQ è un apparecchio che permette la connessione tra due pc attraverso l’interfaccia USB. Avremo bisogno quindi di due cavi USB per DCC + il Net-LinQ per permettere la comunicazione. In foto vediamo il Net-LinQ :

Il cavo per il collegamento al Net-LinQ sarà particolare. Avrà infatti da una parte il classico connettore che abbiamo sul retro della nostra macchina  , dall’altra il connettore per il collegamento al Net-LinQ .
 
Notare la dimensione ridotta del connettore che va al Net-LinQ !
Questa è la rappresentazione grafica del collegamento che andremo ad effettuare :

L’interfaccia USB pero’ ci da anche un’altra possibilità rispetto al collegamento seriale/parallelo : la possibilità di utilizzare un hub USB, per poter collegare quindi più di due macchine, creando una vera e propria LAN :

Tutto questo ha un costo : infatti il fattore negativo di questa scelta è legata a fattori economici. A differenza del collegamento seriale/parallelo avremo necessariamente bisogno di acquistare un Net-LinQ per effettuare il collegamento. La possibilità di costruirselo è nulla in quanto molto complesso, a differenza del cavo null-modem che ha una struttura molto semplice.
Dall’altra parte pero’ si avrebbe un collegamento veloce e la possibilità di collegare più di 2 pc acquistando un hub USB.
Da ricordare : non basta avere la porta USB per poterla utilizzare.

Occorre che il sistema operativo la supporti :

Non avremo problemi per Windows 95 OSR2 2.1, WINDOWS 98, WINDOWS ME, WINDOWS 2000.
Non è supportata su WINDOWS NT e Ms-Dos. Non è possibile classificare questo come un difetto in quanto il DCC è un collegamento usato prevalentemente in sistemi peer-to-peer dove, nella maggior parte dei casi, si utilizza windows 98/ME/2000 .

Riassumendo quindi :·         Connessione seriale : velocità fino a 10 kbytes/secondo, basso costo, supportato da tutti i sistemi operativi·         Connessione parallela : velocità da 60 a 80 kbytes/secondo, basso costo, supportato da tutti i sistemi operativi·         Connessione USB : velocità da 500 a 700 kbytes/secondo, costo medio, supportato solo da Windows 95 OSR 2.1, Windows 98, Windows ME, Windows 2000

KURTIS BLOW

June 5, 2007

Quando a metà degli anni 70 circa, iniziava, a New York, a crearsi quel fenomeno poi identificato come cultura hip hop, Kurtis Blow era la. Ha cominciato a ballare la breakdance, ed a seguire tutti i deejay e frequentare tutti i locali dove si esprimevano le varie tendenze della cultura hip hop. Quando finalmente decide di comporre il suo primo rap aprendo una strada poi mai più richiusa. Il suo contributo alla cultura hip hop fu davvero notevole, anche se il suo talento musicale fu da molti messo in discussione.

Il suo debutto ufficiale risale al 1980, e i suoni provenienti dalla musica disco, ormai morente, sono sparsi un pò dappertutto nei suoi dischi. La sua caratteristica fu quella di utilizzare comunque una band per comporre le basi musicali, a differenza di quello che facevano i dj, che sull’onda di Rappers Delight della Sugarhill Gang, sovvrapponevano il parlato ad una base musicale, ripetuta all’infinito, come il break di Good Times degli Chic. Il suo rap in effetti fu sempre un po’ disordinato, non era metodico e preciso come quello degli altri rappers, e anche i testi furono per lo più senza un preciso senso, diciamo piuttosto leggerini, ma riuscì comunque a fare tendenza, sopratutto con quel caratteristico giro di parlato che lo rese famoso in tutti i club del mondo, e che faceva pressapoco così: “Everybody in the house say ‘Ho!'” (Ooooh rispondeva il pubblico). A dire il vero i suoi primi tentativi furono l’incisione di alcuni brani del genere romantico, ma si dovette ricredere dopo il successo di Rappin Blow, dapprima proposto solo come lato B del mix. L’enorme successo di questo brano lo portò a reinciderlo a Dicembre del 1980 sotto il nome di Cristhmas Rappin. Il pezzo era sostanzialmente lo stesso ma il lato B questa volta era occupato dalla versione strumentale dello stesso, cosa questa che lanciò una vera e propria caccia al disco. Infatti da quel momento tutti i deejay del mondo erano soliti improvvisare il rap su quella base davvero originale. Successivamente non contento di ciò, Kurtis decise di incidere quello che senza ombra di dubbio si può definire il suo più grande successo della storia della musica rap, dopo quello della Sugarhill, e cioè The Breaks. Anche questo pezzo uscì con la parte strumentale nel retro del mix, e fu l’apoteosi. Seguirono poi una marea di successi che lo tennero sulla cresta dell’onda sino alla metà degli anni 80, e che gli portarono l’appellativo di “Re del Rap”.

La lampadina

May 31, 2007

Lampadina a incandescenza

Lampadina a incandescenza

La lampadina è un dispositivo elettrico specificamente progettato per produrre luce.

Ci sono diversi tipi di lampadina per usi diversi. Anzitutto una lampadina viene classificata attraverso i suoi due parametri più importanti: la tensione di alimentazione (V = Volt) e la potenza (W = Watt). La potenza non è indice diretto del flusso luminoso emesso (misurato in lumen), poiché questo è determinato anche dall’efficienza luminosa, ovvero il rapporto tra l’energia luminosa visibile emessa e l’energia elettrica assorbita. L’energia perduta è emessa in zone dello spettro elettromagnetico non percepibili dall’occhio umano: Infrarosso e ultravioletto.
Inoltre una lampadina viene anche catalogata attraverso la sua forma: la forma più comune è la lampadina a goccia, poi c’è la forma a oliva, a tortiglione, a sfera, a peretta, tubolare, ecc.
Un altro elemento caratteristico di una lampadina è la tonalità della luce emessa, più calda o più fredda. Normalmente si definisce questo parametro come temperatura di colore, ovvero la tonalità che avrebbe la luce emessa da un corpo nero ideale riscaldato alla temperatura data. Questo valore è espresso in kelvin. È da sottolineare che quando si parla di luce calda, si intende in realtà una luce tendente alla parte rossa dello spettro e quindi emessa in realtà da un corpo più freddo.

Un’altra caratteristica importante della lampadina è costituita dal suo attacco che si chiama virola; questa può essere di alluminio, di ottone o di acciaio nichelato e ha, generalmente due forme tipiche: a vite o a baionetta. A sua volta la virola ha diverse dimensioni in funzione della potenza della lampadina. La forma più comune della virola nell’Europa continentale è quella a vite con diametro di 27 mm e viene detta quindi virola tipo E27 (la E è l’abbreviazione di Edison). In Gran Bretagna ed in alcune zone della Francia viene invece usata la virola a baionetta con diametro di 22mm. Da qui la denominazione di virola tipo B22 (la B è l’abbreviazione di Bayonet).

Cronologia storica

Tecnologie

Esistono lampadine basate su tecnologie molto diverse tra loro:

Incandescenza

Nella lampada ad incandescenza la produzione avviene portando un filamento metallico di tungsteno all’incandescenza alla temperatura di 2700°ĸ per effetto Joule. Il filamento di tungsteno è posto sotto vuoto, l’assenza di ossigeno a contatto con il filamento è garantito dalla relativa ampolla, generalmente di vetro, della lampadina.
Lo spettro di emissione della superficie incandescente del filamento è approssimabile allo spettro di corpo nero.

Una variante è la lampada alogena.

I classici attacchi standard sono E27 (attacco grande) ed E14 (attacco piccolo).

Con le lampadine a incandescenza si usa solo il 5% dell’elettricità con cui è alimentata, il resto si spreca.

Scarica

Nelle lampade a scarica luce viene prodotta da un gas ionizzato per effetto di una scarica elettrica. Sono tipicamente costituite da un tubo di vetro o quarzo al cui interno è presente un particolare gas o vapore (es. di sodio o di mercurio), alle cui estremità sono collocati due elettrodi. Una opportuna differenza di potenziale provoca la formazione un arco di plasma nel gas.
L’emissione avviene in corrispondenza delle righe di assorbimento tipiche del gas impiegato. Per esempio, nelle lampade al sodio a bassa pressione l’emissione è pressoché monocromatica gialla. Più spesso la luce è prodotta per fluorescenza, come nelle comuni lampade fluorescenti, erroneamente chiamate tubi al neon, anche se il neon in realtà non è alla base del funzionamento. In queste lampadine la scarica avviene in vapore di mercurio, prevalentemente nello spettro ultravioletto. Sulla superficie interna del tubo è deposto un materiale fluorescente che assorbe l’energia dei raggi ultravioletti e la riemette nel campo della luce visibile.
La scarica nei gas è stata realizzata prima della lampadina ad incandescenza, ma l’utilizzo del fenomeno nelle lampadine si è avuto nella prima metà del novecento. Le lampadine a fluorescenza usano il 25% dell’elettricità per illuminare di quella che gli viene inviata.

LED

Queste lampadine, di recente sviluppo, sono costituite da uno o più spesso diversi diodi LED alimentati da un apposito circuito elettronico. Hanno la caratteristica di emettere una luce bianchissima (ma ci sono LED di diversi colori) e con scarsa produzione di calore. Hanno anche la caratteristica, a fine vita, di esaurirsi lentamente piuttosto che bruciare istantaneamente.
Lo svantaggio principale è l’elevato costo rispetto ad altre tecnologie. Con questo tipo di lampadina viene usato il 50% dell’elettricità per l’illuminazione.

Polimeri organici

Questa tecnologia, che potrebbe diventare predominante nel futuro, si basa su materiali plastici (polimeri) in grado di emettere luce per elettroluminescenza se attraversati da corrente elettrica. Una classe di questi materiali sono gli OLED. I principali vantaggi risiedono nell’economicità, buon rendimento e lavorabilità in fogli di forma arbitraria. Potrebbero per esempio tappezzare il soffitto generando una luce diffusa, non abbagliante e senza ombre. Con questa tecnologia si sfrutterebbe oltre il 50% di elettricità che arriva per illuminare.

BIOGRAFIA: John Joseph Travolta

May 24, 2007

Nome di battesimo: John Joseph Travolta
Data e luogo di nascita: 18 febbraio 1954, Englewood, New Jersey, USA
Bee Gees a palla che cantano “Night Fever”, la palla a effetto specchio che ruota come un pianeta sulla testa di chi sta sulla pista da ballo, gli strobo che si muovono senza sosta, anche che si dimenano, braccia che si sollevano verso l’alto con uno scatto accompagnato dalla musica, abiti da sera, balli di gruppo, la febbre che sale, l’arrivo del sabato dopo una settimana lavorativa, i vestiti all’ultima moda. Ognuno di questi elementi è collegabile al suo nome: l’oggi ruvido e nervoso John Travolta. L’unico attore che non è mai stato un debuttante vero e proprio, ma che ha cominciato la sua carriera con un boom strepitoso, facendo 100 al primo colpo. Peccato poi che, trascorsi gli anni, fra alti e bassi, sia stato costretto a reinvertarsi e farsi reinventare continuamente. Ma almeno è ancora in competizione!
Di origini italo-americane, figlio di un riparatore di pneumatici (ed ex giocatore di football) e di una docente di arte drammatica, fratello degli attori Joey, Ellen, Ann, Margaret e Sam Travolta, comincia a recitare e ballare fin da piccolo, per deliziare il quartiere. Molto portato per la danza, a 12 anni viene incoraggiato dai genitori affinché segua delle lezioni di tip tap: lo fa dal fratello di Gene Kelly, Fred Kelly. Poi partecipa come attore ad alcuni musical della sua cittadina come “Who’ll Save the Plowboy?”, dove imitava i numeri di danza del programma tv Soul Train. Iscritto dalla madre in una scuola di recitazione di New York, studia anche canto. Lascerà la scuola a soli 16 anni, mentre a 18 sgambetta già sui palchi off-Broadway, con estremo successo. All’inizio da il meglio di se stesso in “Rain”, poi entra nel cast di “Bye Bye Birdie” e “Grease”, grazie al quale gira per l’America. Ma è dopo 10 mesi passati nello spettacolo “Over Here” che decide di tentare la strada per Hollywood, anche se prima passerà per i corridoi del tubo catodico. Esordirà nel piccolo schermo apparendo nei telefilm: Emergency!, The Rookies, Medical Center, ma soprattutto I ragazzi del sabato sera (1975), all’interno del quale veste i panni di un ragazzo difficile di nome Vinnie Barbarino.
Ed è proprio questo telefilm che spinge il regista John Badham a scegliere Travolta come interprete assoluto de La febbre del sabato sera (1977). Travolta, che già stata muovendo i suoi primi passi anche sul grande schermo, aveva appena esordito in pellicole horror come Il maligno (1975) e Carrie – Lo sguardo di Satana (1976) ed era stato rifiutato per il ruolo che poi andò a Randy Quaid ne L’ultima corvé, entrando nella cronaca mondana per la sua relazione con l’attrice Diana Hyland, di diciotto anni più grande di lui (si erano conosciuti sul set del film tv The Boy in the Plastic Bubble, 1976, dove lei impersonava il ruolo di sua madre). Era perfetto, quindi, per interpretare il giovane proletario italo-americano Tony Manero che andava a scatenarsi in discoteca il sabato sera, così come era perfetto per delineare con una sola interpretazione un’intera generazione. Per questo motivo, venne immediatamente nominato agli Oscar e ai Golden Globe come miglior attore protagonista. E sull’onda di quel Manero, Sylvester Stallone diresse il fiacco seguito, sempre con John Travolta come protagonista Staying Alive (1983), che fu un fiasco.
Il periodo d’oro dell’attore però finisce presto. Inizia tutto quando quella che lui credeva fosse la usa compagna di vita, la Hyland muore di cancro fra le sue braccia. Di risposta, l’interprete si butta nel lavoro, e da musical a musical, diventa il protagonista maschile della trasposizione cinematografica di Grease – Brillantina (1978) diretto da Randal Kleiser, conquistandosi una seconda candidatura ai Golden Globe. Da quel momento in poi, le proposte continueranno sì a fioccare sulla sua testa come pioggia torrenziale, ma rifiuterà la maggior parte dei ruoli a beneficio, ironia del destino, di Richard Gere che acquisterà popolarità ed erotismo grazie a I giorni del cielo (1978), American Gigolo (1980) e Ufficiale e gentiluomo (1982). Scelte e rifiuti sbagliati che lo passarono immediatamente a star di secondo piano. Lo avrebbe salvato forse il ruolo di Jim Morrison che avrebbe dovuto interpretare, ma disgraziatamente ci furono dei problemi legali e il progetto naufragò per sempre. Perfettamente inserito nel patinato mondo hollywoodiano, si trova a suo agio fra le grandi stelle di una volta: è il migliore amico di James Cagney, di Cary Grant e di Barbara Stanwyck. Cercherà con difficoltà di continuare la sua marcia verso la celebrità diretto da James Bridges e affiancando Debra Winger in Urban Cowboy (1980), ripetendo l’esperienza con Bridges in Perfect (1985), questa volta assieme a Jamie Lee Curtis.
De Palma (che già lo aveva diretto in Carrie) lo rivorrà come protagonista del suo film più bello, il flop Blow Out (1981), che però spingerà la carriera di Travolta irrimediabilmente verso il basso. Rifiutato il ruolo che poi andò a Tom Hanks in Splash – Una sirena a Manhattan (1984), resuscita costruendo assieme a Kirstie Alley una famiglia troppo parlante nella trilogia di Senti chi parla (1989, 1990 e 1993). Nel frattempo, si sposa con l’attrice Kelly Preston (conosciuta sul set del film Whisky & vodka – Cocktail d’amore) il 5 settembre 1991. Il guaio è che il matrimonio venne dichiarato illegale, anche perché celebrato da un ministro francese di Scientology, quindi la coppia fu costretta a sposarsi una seconda volta (con tutti i crismi) 7 giorni dopo. Dall’unione di queste star nascono due figli: Jett (curiosamente concepito a casa di Bruce Willis e Demi Moore durante un weekend) e Ella Bleu.
Pilota di aerei e proprietario di una moltitudine di aeroplani che tiene tutti nella sua villa, è l’unico attore hollywoodiano che oltre a piscina e giardino, ha anche una pista di atterraggio in casa sua! Rifiuta il ruolo di protagonista ne Forrest Gump (1994) e Apollo 13 (1995), autocondannandosi quasi all’oblio. Fortuna volle che un regista quasi esordiente di nome Quentin Tarantino lo riportasse in auge affidandogli la parte di un sicario in Pulp Fiction (1994). Inaspettatamente, Travolta torna sulla cresta dell’onda, vince un David di Donatello come miglior attore straniero e le candidature ai Golden Globe e agli Oscar come miglior attore protagonista, trionfando finalmente e solo ai Golden Globe, grazie a Get Shorty (1995) di Barry Sonnenfeld (ruolo che poi sarà ripreso in Be Cool).
Dopo essere stato diretto da Jon Turteltaub in Phenomenon (1996) diventa grande amico di Forest Whitaker, con il quale reciterà nell’orribile Battaglia per la Terra – Una saga dell’anno 3000 (2000), e rafforzerà la sua immagine davanti all’obiettivo di John Woo che prima lo affiancherà a Christian Slater in Nome in codice: Broken Arrow (1996) e poi a Nicolas Cage nel bellissimo Face/Off – Due facce di un assassino (1997). Più soft i suoi ruoli nelle commedie di Nora Ephron, un po’ invisibile in She’s so lovely – Così carina (1997) di Nick Cassavetes e Mad City – Assalto alla notizia (1997) di Costa Gravas, torna invece ruggente nel ruolo del governatore democratico Jack Stanton in corsa per la Casa Bianca nella pellicola di Mike Nichols I colori della vittoria (1998). Arriva di volata un’altra nomination ai Golden Globe.
Specializzatosi nei thriller e nei film d’azione, da A Civil Action (1998) a Codice – Swordfish (2001), rifiuta il ruolo dell’avvocato Billy Flynn propostogli nel musical Chicago (2002), che andò come di consuetudine a Gere, che vinse un Golden Globe per la sua performance. Testimonal dell’italiana Sky, ritorna sul grande schermo, rinverdito, nella commedia Svalvolati on the road (2007) di Walt Becker, ma non si è lasciato sfuggire il ruolo en travestì di Edna Turnblad, offertogli da Adam Shankman in Hairspray (2007), remake di Grasso è bello di John Waters.
Immagine e simbolo del musical anni ’70, dopo il monumentale successo de La febbre del sabato sera è diventato un teen-idol, ma non ha saputo sfruttare al massimo la popolarità che aveva acquistato. Se n’è reso conto troppo tardi, quando anche la brillantina e i pantaloni a zampa d’elefante passarono di moda e lui con essi. In più oggi è eccentricamente visto come uno dei più fedeli seguaci dell’inquietante Chiesa di Scientology. Speriamo che le interpretazioni future, oscurino il personaggio, per una volta.

ESERCIZI SUI RESISTORI

May 9, 2007

Calcolare la resistenza totale vista tra i terminali AB. Applicando una tensione di 120 volt tra AB, calcolare la potenza dissipata dall’intero circuito in watt e cal/s.

esercizio.jpg

Il resistore R1 ha una caratteristica voltamperometrica come riportato a fianco,supponendo che il voltmetro connesso sulla DIAGONALE DI RILEVAZIONE abbia resistenza interna infinita,calcolare la differenza di potenziale tra i nodi C e D,indicandone l’esatta polarità con le seguenti tensioni applicate tra A e B, 10 – 15 – 30 – 40 volt.Calcolare la potenza dissipata da R1 in corrispondenza a ciascuna tensione applicata e tracciare il diagramma potenza dissipata – tensione applicata del componente R1.

 figura3.jpg

 

LE RETI ETHERNET

April 26, 2007

Ethernet è il nome di un protocollo per reti locali, sviluppato a livello sperimentale da Robert Metcalfe e David Boggs, suo assistente, alla Xerox PARC. La data ufficiale è il 1973 quando Metcalfe scrisse un promemoria ai suoi capi della Xerox sulle potenzialità di Ethernet. Nel 1976 Metcalfe e Boggs pubblicano un articolo dal titolo Ethernet: Distributed Packet-Switching For Local Computer Networks.

L’obiettivo originale dell’esperimento era ottenere una trasmissione affidabile a 3Mbps su cavo coassiale in condizioni di traffico contenuto, ma in grado di tollerare bene occasionali picchi di carico. Per regolamentare l’accesso al mezzo trasmissivo era stato adottato un protocollo di tipo CSMA/CD (Carrier Sense Multiple Access / Collision Detection).

Schema di una rete Ethernet

Schema di una rete Ethernet

Connettori RJ 45

Connettori RJ 45

Il successo dell’esperimento suscitò forte interesse e portò alla formazione di un gruppo di imprese, costituito da Xerox Corporation, Intel Corporation e Digital Equipment Corporation, che nel 1978 portarono alla standardizzazione 802.3 e il 30 settembre 1980 a pubblicare la versione 1.0 dello standard Ethernet.

Intanto Metcalfe lasciò Xerox nel 1979 per promuovere l’uso del PC e delle LAN per cui fondò 3Com. Metcalfe spesso attribuisce il successo di 3Com a Jerry Saltzer. Questi collaborò alla stesura di un articolo importantissimo dove suggeriva che l’architettura token ring fosse teoricamente superiore alla Ethernet. Con questo le grosse aziende decisero di non puntare su Ethernet mentre, al contrario, 3Com poté creare un business intorno al sistema riuscendo a guadagnarsi un ottimo vantaggio tecnico e a dominare sul mercato quando Ethernet prese piede.

Successivamente, l’interesse delle imprese del settore aumentò al punto che l’IEEE costituì alcuni gruppi di studio finalizzati a perfezionare e consolidare Ethernet, nonché a creare numerosi altri standard correlati. Uno dei risultati raggiunti fu la pubblicazione, nel 1985, della prima versione dello standard IEEE 802.3, basato sull’originale specifica Ethernet, ma non completamente identificabile con essa. In seguito, lo standard Ethernet come tale non è più stato mantenuto, ma il termine continua ad essere usato quasi come fosse un sinonimo di IEEE 802.3, sebbene i due standard non coincidano affatto.

I motivi del successo

Ethernet attualmente è il sistema LAN più diffuso per diverse ragioni:

  • È nata molto presto e si è diffusa velocemente per cui l’uscita di nuove tecnologie come FDDI e ATM hanno trovato il campo occupato;
  • Rispetto ai sistemi concorrenti è più economica e facile da usare e la diffusione delle componenti hardware ne facilitano l’adozione;
  • Funziona bene e genera pochi problemi (cosa rara nel campo informatico);
  • È adeguata all’utilizzo con TCP/IP;
  • Nonostante i suoi concorrenti fossero più veloci nella trasmissione dati, la Ethernet si è sempre ben difesa.

FRAME

Nonostante Ethernet abbia diverse tipologie, l’elemento comune è nella struttura del frame che viene definito DIX (DEC, Intel, Xerox) ed è rimasto fedele alla versione originale:

Questo è il frame ricevuto dallo strato di rete nella pila di protocolli. Gli elementi sono:

  • Preamble Preambolo (8 byte): I primi 7 byte hanno valore 10101010 e servono a svegliare gli adattatori del ricevente e a sincronizzare gli oscillatori con quelli del mittente. L’ultimo byte ha valore 10101011 e la serie dei due bit a 1 indica al destinatario che sta arrivando del contenuto importante;
  • Destination MAC address Indirizzo di destinazione (6 byte): Questo campo contiene l’indirizzo LAN dell’adattatore di destinazione, se l’indirizzo non corrisponde il Livello fisico del protocollo lo scarta e non lo invia agli strati successivi.
  • Source MAC address Indirizzo sorgente (6 byte);
  • EtherType Campo tipo (2 byte): Questo campo indica il tipo di protocollo in uso durante la trasmissione e la lunghezza del campo dati;
  • Payload Campo dati (da 46 a 1500 byte): contiene i dati reali e possono essere di lunghezza variabile in base al MTU (Maximum Transmission Unit) della Ethernet. Se i dati superano la capacità massima, vengono suddivisi in più pacchetti;
  • FCS Controllo a ridondanza ciclica (CRC) (4 byte): permette di rilevare se sono presenti errori di trasmissione, in pratica il ricevente calcola il CRC mediante un algoritmo e lo confronta con quello ricevuto in questo campo.

É molto simile al frame IEEE 802.3 tranne che per il campo tipo che nell’802.11 diventa Tipo o Lunghezza e il preambolo ridotto a 7 byte con 1 byte trasformato in Start of Frame.

Indirizzo Ethernet

Gli indirizzi sono tutti a 6 byte in quanto Ethernet definisce uno schema di indirizzamento a 48 bit: ogni nodo collegato, quindi, ha un indirizzo Ethernet univoco di questa lunghezza. Esso corrisponde all’indirizzo fisico della macchina ed è associato all’hardware.

Sono anche detti indirizzi hardware, indirizzi MAC (o MAC address) o indirizzi di livello 2.

Tipologia di trasmissione

La codifica usata per i segnali binari è la codifica Manchester.

Ethernet è una tecnologia che fornisce al livello di rete un servizio senza connessione, in pratica il mittente invia il frame nella LAN senza alcun handshake iniziale, questo frame viene inviato in modalità broadcast (o a bus condiviso) e attraversa tutta la LAN. Quando viene ricevuto da tutti gli adattatori presenti sulla LAN quello che vi riconoscerà il suo indirizzo di destinazione lo recepirà mentre tutti gli altri lo scarteranno.

Il frame ricevuto può contenere errori, la maggior parte dei quali sono verificabili dal controllo CRC. Un frame che non supera il controllo CRC, viene scartato. Ethernet non prevede la ritrasmissione del frame scartato, né una notifica della sua perdita agli strati superiori. Ethernet è quindi inaffidabile, ma anche semplice ed economica.

Sarà compito degli strati superiori (ad esempio TCP) provvedere alla ri-trasmissione.

La gestione delle collisioni e dell’occupazione simultanea del canale di trasmissione viene gestita mediante il CSMA/CD (Carrier Sense Multiple Access with Collision Detection). Anche da questo punto di vista, Ethernet non è in grado di garantire la consegna di un frame, e men che meno che il frame sia consegnato entro un tempo prevedibile.

Per approfondimenti vedere articolo principale CSMA/CD.

Nei sistemi Ethernet recenti, il problema non si presenta in quanto con gli switch e la crescita della capacità (vedi Gigabit Ethernet) si eliminano le collisioni e si rende molto più improbabile la congestione.

Efficienza

Ethernet utilizza un algoritmo di accesso multiplo alla rete detto CSMA/CD. Ciò permette all’Ethernet, in certe condizioni, di avere un’efficienza di trasmissione del 100%.

L’efficienza è vista come la frazione di tempo a lungo termine durante la quale sono trasmessi frame senza collisioni con altri mittenti.

Ethernet con ripetitori e hub

Rete con hub centrale

Rete con hub centrale

Ethernet tende a crescere ma il cavo Ethernet ha una capacità limitata sia in lunghezza sia in capacità di traffico, per cui le LAN di grosse dimensioni vengono suddivise in reti più ridotte interconnesse tra loro da particolari nodi tra i quali possiamo trovare dei ripetitori, degli hub o elementi più sofisticati come bridge o switch.

Il ripetitore semplicemente replica il segnale ricevuto. Il cavo Ethernet può quindi assumere lunghezze molto maggiori alle sue capacità. L’unico vincolo è che tra due computer ci devono essere al massimo due ripetitori per salvaguardare la temporizzazione di CSMA/CD.

Per approfondimenti vedere la voce correlato hub.

Ethernet con bridge e switch

Rete complessa collegata da più switch

Rete complessa collegata da più switch

Il bridge è un elemento di interconnessione più sofisticato dell’hub perché opera sui pacchetti e non sui segnali elettrici. Con questo sistema si possono creare segmenti di LAN indipendenti in cui le collisioni e i ritardi restano limitati.

Molti bridge sono adattativi o ad apprendimento per cui sono provvisti di un software con elenchi di indirizzi per ogni scheda ethernet che posseggono. In questo modo quando arriva un pacchetto, estrapolano l’indirizzo di destinazione, e inviano lo stesso pacchetto nel segmento giusto in base agli elenchi associati alle schede.

Per approfondimenti vedere la voce correlato bridge.

Molto più sofisticati sono gli switch che sono composti da un numero elevato di schede ethernet che consente ad ogni host di essere connesso direttamente. Allo switch vengono poi collegati uno o più cavi Ethernet ad alta velocità che collegano altri segmenti di LAN.

In questo modo lo switch intercetta i pacchetti e li ridireziona ad un host oppure sui segmenti Ethernet. La gestione dei pacchetti, quindi, è ottimizzata perché questi sono subito reindirizzati alla destinazione evitando, per quanto possibile, collisioni. In questo modo ogni scheda ha un suo dominio di collisione.

IL RESISTORE

April 12, 2007

INTRODUZIONE

Nelle apparecchiature elettroniche (apparecchi radio, televisori, trasmettitori, amplificatori audio, registratori, ecc.) i resistori sono dei componenti molto importanti e anche molto numerosi. Sono però dei componenti semplici, poco costosi e poco ingombranti. Essi presentano una certa resistenza elettrica,ovvero servono a limitare una corrente al valore desiderato. Ma andiamo ad analizzare i TRE PARAMETRI CARATTERISTICI, che definiscono univocamente il resistore. Essi sono:

RESISTENZA
POTENZA
TOLLERANZA

RESISTENZA

Matematicamente dalla Legge di Ohm la resistenza elettrica indica il numero di volt da applicare ai capi del resistore affinché in esso scorra la corrente di 1A costituendo quindi un chiaro indice di quanto il materiale si opponga al suo passaggio. Nel sistema M.K.S. ed in quello degli Ingegneri si misura in OHM, i suoi multipli commercialmente reperibili sono i Kohm e Mohm, pari rispettivamente a 10³ e 10^6 Ohm per poi scendere sino ai decimi e centesimi di Ohm. Ad ogni resistenza risulta associato anche il proprio inverso ovvero la conduttanza (simbolo G),che si misura in SIEMENS, tipico dei materiali isolanti il valore in μSiemens, pari cioθ a 10^-6 S. Generalmente i resistori sono di forma cilindrica ed hanno un terminale uscente da ciascuna delle due estremità: questi prendono il nome di REOFORI o CODOLI. A seconda della tecnica costruttiva si possono distinguere in tre categorie principali:

A STRATO METALLICO

AD IMPASTO

A FILO

 RESISTORI A STRATO METALLICOI resistori a strato, denominati anche RESISTORI A FILM, sono costituiti da un supporto di porcellana o steatite, sul quale viene depositato in modo uniforme, oppure in forma di nastro avvolto a spirale, uno strato di materiale che presenta un’elevata resistenza, come la grafite, la silite od il carbonio. Il valore di resistenza risultante dipende dallo spessore e dalla lunghezza dello strato resistivo depositato e naturalmente dal materiale di cui esso è composto. Questo strato resistivo è ricoperto da una vernice isolante e fa capo ai due terminali, i quali sono avvolti oppure fissati mediante due cappucci metallici alle estremità del corpo del resistore. RESISTORI AD IMPASTOI resistori ad impasto sono invece costituiti da una miscela di carbone e materiale cementante, depositata sotto forma di strato intorno ad un tubicino di vetro, nel quale sono infilati i terminali; questi ultimi sono a contatto con il materiale resistivo ai due estremi ed il tutto è contenuto in una custodia di materiale plastico isolante. Questo tipo è adatto per lavorare anche in alte frequenze, essendo la componente induttiva assai ridotta, mentre per gli altri due è assolutamente da evitare, comportandosi a tali frequenze, proprio per la loro particolarità costruttiva, più da induttori che da resistori !!!!! RESISTORI A FILOI resistori a filo, costruiti per poter essere percorsi da elevate intensità di corrente, sono formati invece da un supporto isolante, sul quale è avvolto un filo avente elevata resistenza elettrica. I fili normalmente impiegati sono di speciali leghe resistive come la costantana, manganina, nichel-cromo. Ai due estremi del filo resistivo sono saldati i terminali; l’avvolgimento è poi protetto con vernice isolante, oppure da un rivestimento cilindrico di materiale plastico altamente isolante.

POTENZA

Il valore della potenza di un resistore è data dal prodotto della resistenza per la corrente che vi circola elevata alla seconda potenza, cioè:

P = R x I²

poiché all’acquisto conosciamo sia il valore della resistenza che quello della potenza, possiamo già calcolare quale sarà la corrente massima, che potrà attraversare il componente senza che questo si carbonizzi !!!!! ovvero:

I = √P/R

che sta ad indicare LA RADICE QUADRATA DEL RAPPORTO POTENZA RESISTENZA. Attenzione come sempre alle unità di misura altrimenti otterrete risultati MICIDIALMENTE SBAGLIATI!!!!! quindi POTENZA espressa in WATT e resistenza in OHM. 

TOLLERANZA

resistore.jpg

 Fig. 1

In base al codice EIA, il valore delle resistenze fisse è indicato con tre fasce colorate, poste ad un lato di esse, come indicato in fig.1.Vi è una quarta fascia la quale indica la TOLLERANZA da applicare IN PIU’ OD IN MENO sul valore di resistenza del componente e può essere dello 0.5%,1%,5%,10% e senza quarta fascia del 20%. Delle prime tre fasce la prima indica la prima cifra del valore, la seconda indica la seconda cifra e la terza indica IL NUMERO DEGLI ZERI CHE SEGUONO LE DUE CIFRE.

ESEMPIO

PRIMA FASCIA DI COLORE MARRONE
SECONDA FASCIA DI COLORE NERO
TERZA FASCIA DI COLORE ARANCIONE
QUARTA FASCIA DI COLORE ORO

 ·         PRIMA FASCIA DI COLORE MARRONE = 1

·         SECONDA FASCIA DI COLORE NERO = 0

·         TERZA FASCIA DI COLORE ARANCIONE = 3

·         QUARTA FASCIA DI COLORE ORO = 5%

IL VALORE E’ IN QUESTO CASO DI 10000 OHM CON TOLLERANZA DEL 5%!!!In pratica il valore di resistenza può variare da un minimo di 10000 – 5% = 9500 Ohm sino ad un massimo di 10000 + 5% = 10500 Ohm !!!! 

COLLEGAMENTO DEI RESISTORI

I resistori possono essere collegati tra loro essenzialmente in tre modalità: SERIE o CASCATA, PARALLELO o DERIVAZIONE e MISTA, combinazione cioè delle due precedenti.

RESISTORI IN SERIE

Due o più resistori sono collegati in serie, quando SONO PERCORSI DALLA STESSA CORRENTE: la RESISTENZA TOTALE è data dalla SOMMA dei valori delle resistenze. In fig.2 è indicato un circuito comprendente tre resistori in serie,R1 da 10 Kohm,R2 da 50 Kohm ed R3 da 0,2 Mohm: la resistenza totale sarà:

Rtot = R1 + R2 + R3 = 10.000 + 50.000 + 20.0000 = 260.000 Ohm = 0,26 Mohm

resistore3.jpg

Fig. 2 

RESISTORI IN PARALLELO  La somma di due o più resistori in parallelo è sempre minore della più piccola delle resistenze; se, ad esempio, un resistore da 8 ohm viene collegato in parallelo con uno di 5,il valore della resistenza complessiva è inferiore ai 5 ohm!!!! Vediamo adesso di ottenere una formula che esprima la resistenza Re equivalente alla rete di fig.3.

resistore4.jpg

Fig. 3

Supponiamo che tra i nodi A e B, sia applicata una tensione v(t),quindi non necessariamente continua, e siano i1(t),i2(t),i3(t) le correnti rispettivamente in R1,R2 ed R3.La corrente che passa in Re, cioè nella resistenza equivalente, deve essere necessariamente pari alla SOMMA DELLE TRE, ovvero:

ie(t) = i1(t) + i2(t) + i3(t)

poichè i resistori sono collegati in parallelo la tensione agente su di essi sarà la medesima, quindi:

v(t) = R1 x i1(t) = R2 x i2(t) = R3 x i3(t) = Re x ie(t)

giacchè iT(t) è uguale alla corrente che passa in Re, iT(t) = ie(t), potremo esprimere la somma delle tre correnti anche nel seguente modo:

iT(t) = ie(t) = i1(t) + i2 (t) + i3(t) = v(t) / R1 + v(t) / R2 + v(t) / R3

ossia:

v(t)/ Re = v(t) / R1 + v(t) / R2 + v(t) / R3

 e finalmente dividendo ambo i membri per v(t),otteniamo la formula desiderata:

1/Re = 1/R1 + 1/R2 + 1/R3

come possiamo notare si tratta di SOMMARE LE TRE CONDUTTANZE ed eseguire poi l’inverso del risultato. Nel caso di soli due rami in parallelo, la formula si semplifica assumendo la seguente espressione:

1/Re = 1/R1 + 1/R2 = R1 + R2 / R1 x R2

da cui operando l’inverso:

Re = R1 x R2 / R1 + R2

 nel caso particolare di due resistenze uguali, cioè R1 = R2,avremo:

Re = R² / 2R =R / 2

cioè la resistenza equivalente di due resistenze uguali, connesse in parallelo, è pari alla metà esatta del valore di ciascuna di esse!!!! Nel caso di n resistenze uguali in parallelo, avremo:

Re = R / n

LM317

April 12, 2007

 
Questo integrato, che ha dimensioni identiche a quelle di un normale transistor di media potenza con contenitore tipo T0220, dispone di tre soli piedini (vedi fig.1).

1.      – Il piedino di Entrata, indicato E oppure Vin, riceve la tensione positiva da stabilizzare, che viene      prelevata da un ponte raddrizzatore provvisto del suo condensatore elettrolitico di livellamento.

2.      – Il piedino di Regolazione, indicato R oppure ADJ, viene utilizzato per variare la tensione d’uscita sul valore desiderato.

3.      – Il piedino di Uscita, indicato U oppure Vout, è quello da cui si preleva la tensione stabilizzata.
Fig. 1 In tutti i Data-Book sono riportate per LM317 queste caratteristiche tecniche:

1.      Max Volt input/output 

2.      Dropout Volt 

3.      Minima tensione di uscita 

4.      Max corrente di uscita 

5.      Max potenza dissipabile

6.      Ripple in uscita 

Analiziamo dunque ciascuna caratteristica per comprendere a cosa si riferiscano questi dati forniteci dal costruttore:Max Volt input/outputMolti ritengono che questo valore indichi la massima tensione applicabile sull’ingresso dell’ LM.317. Al contrario, poiché l’integrato accetta sull’ingresso anche tensioni dell’ordine degli 80-100 Volt, questo indica la differenza tra la tensione applicata all’ingresso e quella in uscita, che non deve mai risultare maggiore di 40 Volt.Dropout Volt  Questo dato indica la caduta di tensione introdotta dalla presenza dell’integrato, che è di  3 volt. Quindi se sull’ingresso applichiamo una tensione di 34 volt, la massima tensione stabilizzata prelevabile sarà:34 – 3 = 31 voltMinima tensione di uscita  Questo indica la minima tensione stabilizzata prelevabile, il cui valore per il presente integrato è pari ad 1,25 volt.Max corrente di uscita  La massima corrente prelevabile dall’ LM317 è di 1,5 Ampere, a condizione di un raffreddamento adeguato, altrimenti non sarà possibile prelevare più di 0,5 – 0,6 Ampere, perché in caso di surriscaldamento entrerà in funzione la protezione interna non regolabile, che abbasserà la tensione in uscita e quindi la potenza dissipata dall’integrato.Max potenza dissipabile La potenza massima di 15 watt riportata dal costruttore nelle caratteristiche è ottenibile soltanto se l’integrato è fissato sopra un’ adeguata aletta di raffreddamento, altrimenti entrerà in funzione la protezione termica.Ripple in uscita Il ripple indica il residuo di componente alternata presente sulla tensione continua stabilizzata in uscita. Il valore per l’ LM317 è pari a -80 dB (decibel), cioè il residuo di alternata presente in uscita è 10.000 volte minore di quello presente in ingresso !!!!! 

LM 317 UTILIZZATO COME STABILIZZATORE DI TENSIONE

Nella fig.2 riporto lo schema base consigliato per la realizzazione di un completo alimentatore stabilizzato con LM 317 e di cui andiamo ad analizzare approfonditamente la funzione svolta dai vari componenti.Fig. 2 

C1

E’ il capacitore elettrolitico applicato in uscita al ponte di Graetz. La sua funzione è quella di livellare il più possibile l’ondulazione generata dal ponte stesso. I parametri da calcolare sono:

1.      CAPACITA’ NECESSARIA        

2.      TENSIONE DI LAVORO           

3.      TEMPERATURA DI LAVORO   

CAPACITA’ NECESSARIA  

Il dimensionamento della capacità può essere effettuato seguendo vari metodi, ma praticamente viene utilizzata la relazione seguente: Cx = K ( I / VR )in cui abbiamo:·         Cx è la capacità in microfarad del capacitore di livellamento.         ·         I è la corrente massima in milliampere da erogare.                         ·         VR è il massimo ripple in volt sovrapposto alla tensione continua.  ·         K vale 4,8 per raddrizzatori ad una semionda ed 1,8 per quelli ad onda intera ed a ponte di Graetz. Per utilizzarla occorre conoscere il massimo assorbimento prevedibile, ovvero la massima corrente che l’alimentatore deve erogare. TENSIONE DI LAVORO  La tensione di lavoro del capacitore deve obbligatoriamente soddisfare la seguente relazione: VL > Veff √2 ovvero la tensione lavoro deve essere maggiore del valore di picco o cresta della tensione efficace applicata al circuito raddrizzatore !!!   TEMPERATURA DI LAVORO   I normali elettrolitici possono lavorare sino a temperature massime di 85 °C, per utilizzazioni in ambienti speciali, industriali ed altro si utilizzano quelli a 105 °C, contraddistinti dal caratteristico colore marrone del corpo del capacitore.  

C2

E’ un capacitore poliestere o ceramico da almeno 100 nF, che ,se collegato vicinissimo al terminale di ENTRATA ed a quello di MASSA, evita l’innescarsi di dannose auto oscillazioni a frequenze ultracustiche, causate tra l’altro dalla componente induttiva non trascurabile degli elettrolitici con capacità superiore ai 1000 µF.  

C3

E’ un capacitore elettrolitico da almeno 10 µF e tensione di lavoro da 50 – 63 volt, per rendere più stabile la tensione sul piedino di regolazione. Se si vuole realizzare un alimentatore a tensione regolabile è da evitare l’ impiego di capacità superiori ai 47 µF, poiché determinerà una difficoltosa variazione della tensione di uscita, perché non immediata , ma ritardata dall’ effetto di questa capacità.  

C4

E’ un capacitore elettrolitico applicato sull’uscita dell’integrato, per eliminare eventuali residui di ripple. Il valore non dovrebbe mai essere inferiore ai 100 µF, normalmente viene scelto un valore pari ad 1/10 di C1. La tensione di lavoro deve obbligatoriamente essere superiore alla massima tensione stabilizzata prelevabile dall’ uscita. 

DS1

Questo è un diodo di protezione inserito per evitare che il capacitore C4, quando l’alimentatore viene spento, si scarichi in senso inverso all’interno dell’integrato danneggiandolo.  

DS2

Questo diodo collegato tra i terminali di uscita e quello di regolazione, serve a scaricare istantaneamente il capacitore C3 in caso di cortocircuito sull’ uscita. Il piedino di regolazione con C3 scaricato si trova a massa ed inibisce l’uscita dell’ integrato che quindi blocca immediatamente qualsiasi erogazione. 

R1

Questo resistore in abbinamento con R2 forma un partitore resistivo da cui si preleva la tensione da applicare al piedino di regolazione. Conviene scegliere per R1 un valore fisso, generalmente 220 Ohm 1/4 watt, ed agire sull’ altro. 

R2

 Il valore di questo resistore va calcolato in base alla tensione di uscita che si vuol ottenere: più basso è e minore sarà la tensione in uscita, viceversa più alto sarà e maggiore risulterà la tensione. Per calcolare R2 occorre prima conoscere la massima tensione applicata al piedino di ENTRATA, poiché la corrispondente tensione di uscita la otterremo sottraendo ad essa quella di DROPOUT, che per LM 317 è di 3 volt. Se non rispettiamo questa regola otterremo valori resistivi che se utilizzati non daranno mai la tensione calcolata !!!!!!!! Ad esempio, ammettiamo di avere una tensione massima in ingresso pari a 15 volt, in questo caso LA MASSIMA TENSIONE STABILIZZATA IN USCITA prelevabile dall’integrato sarà pari a:

15 – 3 = 12 volt

Quindi conoscendo la massima tensione stabilizzata prelevabile, il calcolo del resistore R2 si effettua utilizzando la seguente formula, fornita nel datasheet del componente in esame:

R2 (Ohm) = [ ( Volt uscita : 1,25) – 1] x 220

dove abbiamo:·         Volt uscita indica il valore della tensione che volete prelevare sull’ uscita dell’ LM 317. ·         1,25 è la tensione presente tra il piedino di regolazione e quello di uscita.                    

·         1 è una costante fornita dal produttore.                                                                      

·         220 è il valore in Ohm di R1.                                                                                     

Logicamente utilizzando per R2 un resistore fisso avremo una tensione stabilizzata fissata al valore da voi calcolato, mentre viceversa inserendo un potenziometro lineare, si potrà ottenere una tensione stabilizzata variabile tra un minimo di 1,25 volt ed un massimo pari a Volt uscita, determinabile sostituendo ad R2 il valore del potenziometro alla massima escursione !!!!!!!!

Volt uscita = 1,25 x [Val POT (Ohm)/220)+ 220]

Le Armi Segrete del III Reich

March 29, 2007

Introduzione Storica

 1906 – Gli studi iniziali sul volo delle V-7

Nel lontano 1906, un professore berlinese di elettrotecnica, certo Lewetzov, aveva avanzato l’ipotesi che la forza di gravità che ci tiene avvinti al pianeta sarebbe dovuta ad una specie di pressione esercitata da una invisibile radiazione sconosciuta – “i Raggi L” – dalla natura corpuscolare ondulatoria e proveniente dallo spazio esterno al sistema solare, dimostrando teoricamente che su un piano sperimentale con un complesso di lastre confezionate con una sostanza impermeabile ai “Raggi L” si sarebbe potuto far funzionare un’autovettura, un’aeronave e persino un’astronave.

Il professore Lewetzov era impegnato di questa convinzione, ma egli morì prima ancora di aver dimostrato in maniera tangibile l’esistenza della radiazione tanto vagheggiata.

1929 – Sperimentazione sui “raggi L”

Nel 1° luglio del 1929, il capitano Horst Pinkell, un esperto nelle applicazioni delle alte frequenze riprese a studiare le teorie del professor Lewetzov che lo portarono fino in Russia, stabilendosi definitivamente quando Hitler prese il potere.

Pinkell, lavorò con altri scienziati sovietici nel laboratorio elettrofisico dell’Istituto Zidkowski di Kaluga, ove ruscì a dimostrare l’esistenza della “Radiazione L” o di qualcosa di affine. Poi l’intero staff degli indagatori nel corso del 1940 si trasferì a Maghitogorsk e là venne delineata una speciale “teoria mesonica” giustificante “certi sconcertanti aspetti della questione” e si tracciarono i piani per la costruzione di alcuni veicoli sperimentali azionati dai “Raggi L”.

Diffidando di Pinkell per la sua origine tedesca, allorché le armate naziste invasero la Russia, le autorità sovietiche affidarono la direzione delle ricerche al fisico Andrey Goryev e pretesero un acceleramento dei lavori nella speranza, rivelatasi poi del tutto vana, di poter impiegare in battaglia un rivoluzionario tipo di aereomobile simile, nell’aspetto esteriore ad un “tozzo elicottero” con un rotore a sei pale girante attorno ad una cabina centrale di forma sferoidale.

Un apposito centro venne perciò allestito d’urgenza nella regione uralica di Belaya.

Secondo il controspionaggio tedesco, a Magnitogork si era tentato dapprima di creare una sostanza cristallina capace di assorbire e neutralizzare in varia misura i “Raggi L”, sfruttando dei fenomeni di polarizzazione e di rifrazione press’a poco analoghi a quelli offerti dalla Tormalina, un silicato alluminoso dalle curiose proprietà ottiche ed elettriche.

Riscontrata l’impossibilità di trovare in natura questo tipo di cristallo o di fabbricarlo per via sintetica, gli esperti russi elaborarono in sua vece una lega metallica “preparata in base ad una formula segreta”, avente le richieste proprietà schermanti a comando e risultante efficace per un periodo di circa 12 anni.

1934: I primi progetti

Nel 1934, Hitler che aveva la predilezione per gli outsiders della scienza convocò “l’esperto dell’implosione” presso la Cancelleria del Reich.

Il colloquio tra il Fuhrer e lo scienziato durò circa un’ora e mezzo, lasciando lo stesso Hitler affascinato dalle teorie dello studioso.

Immediatamente Hitler diede disposizioni di inserire le scoperte di Schauberger nelle progettazioni del 3°Reich; ma le violente opposizioni dei rappresentanti delle concezioni meccanistiche, costrinsero Schauberger a ritirarsi dallo staff.

Tra gli esperimenti dei laboratori Messerschmitt di Augusta e nei Sudeti di allora vi erano vari progetti sia nell’aspetto esteriore che nella propulsione dei velivoli totalmente nuovi e rivoluzionari alle concezioni di volo e nella forma dei velivoli d’allora. Tanto che questi progetti di costruzione divennero dopo la guerra motivo di violente speculazioni.

Questi oggetti totalmente inconsueti erano rotondi e a forma di disco, in poche parole assomigliavano nella forma a quegli oggetti che da decenni tengono il mondo con il fiato sospeso e sono chiamati UFO.

Le costruzioni vennero realizzate nelle officine Messerschmitt basandosi sui vecchi progetti e idee di Schauberger la cui partecipazione a queste opere fu sottoposta a Himmler nel 1943 (quasi dieci anni dopo la sua bocciatura iniziale).

Dopo la dichiarazione di guerra agli USA, e l’invasione di truppe alleate in Africa, seguita dalla catastrofe di Stalingrado, Hitler cercava di rialzare il morale delle forze dell’Asse con nuove armi prodigio. Himmler ripose grandi speranze in un oggetto volante ideato da Schauberger .

Nel campo di concentramento di Mathausen, il regno di Himmler, venne messo insieme un team operativo composto da una élite di detenuti scienziati, tecnici e costruttori, che immediatamente il capo delle “SS” mise a disposizione di Schauberger con l’ordine di portare a termine a tappe forzate e con tutti i mezzi; la costruzione di oggetti volanti atti al combattimento. In cambio della collaborazione, Schauberger chiese di lasciar liberi i prigionieri destinati a queste opere e di trattarli come civili, cosa che sorprendentemente il capo delle “SS” concesse subito.

Solo dopo la guerra si venne a sapere che oggetti volanti corrispondenti ai modelli indicati da Schauberger erano stati prodotti anche in altre officine.

  • Note

Viktor Schauberger – scienziato austriaco (nato nel 1885 – morto nel 1958). Morì in circostanze strane il 20 settembre 1958, dopo varie minacce da parte dei servizi segreti USA. Riuscì a scappare dagli USA rifugiandosi a Linz dove morì.

 

1935 – Termodinamica e carburanti

Verso il 30 settembre e il 6 ottobre 1935, si svolse a Roma il V°Convegno Volta; dedicato al tema delle “Alte velocità in aviazione”. Il professor H.R.Ricardo, un tecnico di fama internazionale e massimo esponente della ricerca aereomotoristica britannica, presentò un’ampia relazione basata sulla termodinamica e sulla carburazione di motori a stantuffi in alta quota, meravigliando i presenti con le sue rivoluzionarie teorie.

Da quella incredibile e avveniristica teoria, che lasciò increduli buona parte dei tecnici aereodinamici ma coinvolgendo in maniera partecipe d’interesse gran parte delle gerarchie tecniche delle “SS”. Il professore concluse la sua orazione con un’aleatoria teoria che riguardavano quote di volo non ancora sperimentate e per l’epoca ancora impossibili “i 65’000 metri di quota”. Visto che i limiti di quell’epoca era di circa 12’000 metri.

Lo studioso spiegava che l’aria a quella quota sarebbe composta di azoto, idrogeno e ossigeno nelle giuste proporzioni per una miscela perfetta, cosicché il motore risulterebbe addirittura rivoltato nel suo carburante, dando ampio risparmio energetico al velivolo, una migliore maneggevolezza dell’aeromobile ed anche una massima velocità.

Queste teorie crearono tra i presenti lunghi brusii di incredulità e dubbi tra i vari tecnici di aereodinamica, soddisfando invece i sogni dei gerarchi tedeschi, i quali cercarono di approntare già da tempo macchine volanti capaci di volare in parte a quelle fantascientifiche quote.

Infatti, in pochi mesi i gerarchi delle “SS” misero insieme uno staff tecnico contornato da un gruppo di meteorologi impegnati insieme allo studio e costruzione di una rivoluzionaria macchina bellica per il potere del 3°Reich, la quale doveva rendere risultati incredibili.

Per diverso tempo vari cultori nell’ambito delle scienze naturali e celesti, nonché tecnici delle radiocomunicazioni scoprirono che ciò che era stato esposto qualche tempo prima dal professor H.R.Ricardo, non era poi così fantasioso come inizialmente poté apparire.

In seguito si scoprì con sufficiente precisione che la dissociazione dell’ossigeno incomincia a diventare sensibile a partire dai 70 Km d’altezza, e totale verso i 100 Km., mentre a quote superiori si dissociano gradatamente anche l’Azoto e tutti gli altri gas, cui la superstratosfera è realmente uno smisurato serbatoio di energia a disposizione dell’Umanità che non se ne avvale per il semplice motivo che ancora non sa farlo su scala industriale.

Anche la latitudine esercita una grande influenza sui valori della “densità ionica” e i paesi nordici risultarono particolarmente favoriti per il notevole abbassamento della soglia stratosferica e per la vicinanza del polo magnetico terrestre, come provato dalle frequenti apparizioni delle aurore boreali.

 

1938 – Brevetto della prima turbina monoruota

Nel 1938, l’ingegnere francese René Leduc aveva brevettato una turbina monoruota a combustibile interna con schiera palare del tipo detto a “reazione”. Il flusso dei gas combusti era però assiale interessando tutta la periferia del motore che, a valle, restava avvolto dal suo scarico gassoso. Inoltre, la staticità della camera di combustione, unica e anulare, non avrebbe mai permesso la produzione di quei caratteristici “getti falcati” che sono la causa prima dello sviluppo della “spinta” che sostiene e sospinge i piatti volanti.

I gas sarebbero sgorgati dall’anello periferico, esaurendo la maggior parte della loro energia cinetica nel passaggio attraverso la corona palettata della turbina, che avrebbe dovuto azionare un’elica.

A causa del modesto rapporto di compressione dell’aria e per il basso rendimento globale del sistema, il brevetto Leduc non venne mai realizzato neppure in via sperimentale.

Su questa ipotesi, anche i tedeschi si misero a lavorare riguardo il progetto dei turbomotori a girante unica.

Il turboprogetto Heinkel M.V.O. 001 era stato anche costruito e provato al banco, ma a quanto sembra, era stato abbandonato quasi subito a favore dello sviluppo dei tipi a giranti separate patrocinati dalla Luftwaffe.

La girante, del tipo “a scatola”, portava su di un lato la palettatura radiale centrifuga del compressore e sul lato opposto una palettatura radiale centripeta agente da turbina.

Si notarono, senza dubbio, dei miglioramenti nei confronti del tipo proposto da Leduc, ma non ancora tali da giustificarne l’applicazione pratica sugli aereoplani, assai meglio serviti dal gruppo motoelica, che stava ormai per toccare il vertice delle sue estreme possibilità.

 

1938 – Progetto di una V7 germanica

Il professor Karl Wagner avrebbe presentato a Hitler il progetto di un aereoplano di forma discoidale, propulso mediante dei “getti” periferici.

Nessuna prova concreta esiste al riguardo, tranne certe esperienze sulle ali (fisse) a pianta circolare, a calotta e a “centro di pressione” fisso, conclusasi appunto nel 1938, condotte principalmente dal dr. M.Hansen e rimaste senza seguito pratico.

 

1939 – Studi sulla levitazione

Nel 1939, il fisico germanico Braunbeck aveva fatto levitare nell’aria (sulla verticale di una potente elettrocalamita) dei minuscoli dischetti di grafite e di bismunto, ma la guerra aveva troncato quegli esperimenti, forse destinati però a rimanere nel campo della pura speculazione scientifica.

Durante l’Esposizione Internazionale di New York del 1939 presso la Casa della magia era possibile vedere un sottile disco lenticolare di alluminio del diametro di una cinquantina di centimetri che, percorso da una corrente alternata ad alta frequenza sviluppata per induzione, restava sospeso a mezz’aria emettendo una notevole quantità di calore. Quel disco si librava però esattamente sulla verticale di un elettromagnete induttore nascosto sotto il pavimento.

Esso volava sì, ma a “punto fisso”, ossia non poteva spostarsi liberamente nello spazio pena l’annullamento del fenomeno.

 

1939 – Primi esperimenti sulla levitazione ionosferica

Prima del 2°conflitto mondiale gli osservatori astronomici di Oslo e di Tromsoe avevano accumulato sulla questione moltissimi dati scientifici. In seguito, quando i tedeschi occuparono la Norvegia, alcuni esperti del Servizio Radiocomunicazioni della 5^ Luftflotte segnalarono ai Servizi Tecnici delle “SS” la possibilità seppur ancora embrionale, di sfruttare per il volo stratosferico l’energia dell’aria dissociata riassumendo la forma biatomica ordinaria entro un adatto tipo di motore.

Parallelamente alle indiscrezioni riportate già da tempo, altri studiosi tedeschi stavano già studiando le possibilità di sfruttamento aereomotoristico dello strato ionizzato, lo strato O3 ad elevata concentrazione d’ozono che si estende all’incirca fra i 20 ed i 40 chilometri d’altezza.

I dati norvegesi raccolti vennero in seguito confrontati con le risultanze fornite dalle indagini sulla ionosfera e sui raggi cosmici condotte in Germania presso il Max Planck Institut fur Physik der Stratosphare dal professor Regener di Stoccarda e con quelli ricavati dai radiosondaggi sistematici effettuati dalla Versuchstation Herzogstand di Kochel nell’Alta Baviera. Riscontrando il fondamento scientifico della proposta, si decise di edificare un centro studi nella regione del Telemark occidentale, in una zona boschiva cinta di montagne (presso il distretto del Guasta), e dalla Germania incominciarono ad affluire macchinari, strumenti scientifici e palloni sonda d’alta quota.

In fase pratica, la messa a punto di un “motore ad aria ionizzata” andarono quasi subito deluse, a causa di duplici difetti: la debole concentrazione della percentuale dell’ossidante e quello della ionizzazione dell’aria.

Dopo vari collaudi e modifiche gli studi arrivarono ad una conclusione concreta solamente nel 1943, quando “l’autoreattore rotante” del turboproietto italiano, dotato di bocche multiple e di una modesta sezione frontale del congegno e il relativo peso ridotto della parte motrice fece intravedere negli esperti dell’Ufficio Aereo Tattico della Luftwaffe una possibile soluzione ai problemi inizialmente affrontati.

Lo sviluppo separato ma parallelo dei turboproietti facilitò il corso delle prove.

Gli esemplari costruiti per questo genere di esperimenti venivano fabbricati con del legno bachelizzato per accentuare al massimo la leggerezza del velivolo.

Gli oggetti ionosferici salivano rapidamente ad autoreazione sin verso i 10-15’000 metri in seguito, l’apparato a razzo applicato in via complementare li scagliava (in parte per inerzia) alcune decine di chilometri più in alto, liberando delle sostanze destinate a reagire con l’aria disgregata, che creavano lunghe scie di fumo, quindi molto visibili anche da lontano e facilmente identificabili riguardo l’obiettivo principale da colpire in fase di un attacco nemico.

Alcune incursioni aeree fallirono per la difficoltà nell’individuare dall’alto nel folto dei fiordi i capannoni del centro operativo tedesco.

Infatti, la minaccia permanente dei Commandos inglesi e l’azione capillare dei patrioti norvegesi indussero fin dalla primavera del 1944, le autorità tedesche a trasferire in patria i centri sperimentali operanti.

La lunga peregrinazione si concluse nel grande balipendio prussiano di Hilersleben, poi a Braunchsweig ed infine a Lindau am Bodensee dove ricevette la sua destinazione definitiva il grande raggruppamento di istituti sperimentali segreti di Zell am See nel Salisburgo meridionale.

I dati ricavati dagli esperimenti norvegesi vennero rielaborati per adattarli alla diversa situazione chemiosferica delle regioni comprese fra il 47° e il 48° parallelo (Salisburgo e Carinzia) utilizzando le misure ricavate in precedenza dal professor Cario dell’Istituto di Fisica del Politecnico di Braunschweig; misure adottate dalle analisi spettroscopiche della luminosità notturna spontanea che sulla Germania Meridionale si forma a partire dai 110 Km. D’altezza per la reazione fotochimica sviluppata dalla lenta diffusione del sodio nell’ossigeno atomico delle quote sovrastanti.

 

1939 – I compressori radiali pluristadio

L’Istituto F.K.F.S. di Stoccarda aveva iniziato nel 1939 lo studio di certi speciali compressori radiali pluristadio a corone concentriche di palette verticali, che sembravano particolarmente indicati per equipaggiare il nucleo pneumatico di turbomotori monoruota a grande sviluppo diametrale.

Questi strani rotori furono costruiti in pochissimi esemplari, vennero provati al banco dinamometrico e poi scomparvero senza lasciare alcuna traccia di sé e dei probabili sviluppi successivi.

 

1939 – Primo collaudo di un apparecchio turboreattore

Quattro giorni prima che cominciasse la guerra, il 27 agosto 1939, il collaudatore Von Ohaim provò il primo apparecchio turboreattore del mondo: l’Heinkel HE178. Solo un ristretto numero di personalità ebbe allora notizia di questo avvenimento…

In Germania, lo sviluppo dei primi modelli di caccia a reazione si effettuò con tanta segretezza dimostrando che certi lavori si svolgevano contro gli ordini del Fuhrer.

Lo sviluppo di detti progetti segreti venivano seguiti con il solito e rigoroso metodo germanico consistente nel suddividere i progetti in problemi e i problemi in sotto problemi.

Ad un determinato istituto di ricerca o ad un ricercatore veniva data da studiare (o da risolvere) solo una piccola parte del tutto. Il ricercatore non solo veniva tenuto all’oscuro dello scopo finale del lavoro, ma la frammentarietà della ricerca era tale che egli non poteva neppure sapere che il risultato conseguito doveva servire per l’approntamento di un razzo.

  • Note

Al tempo delle vicende narrate, l’industria germanica era sotto controllo di due diversi organismi, entrambi statali e riconosciuti: il Ministerium Speer, che coordinava la produzione bellica, sia convenzionale che segreta, e la relativa ricerca, i cui “informatori” agivano pressoché alla luce del sole come dei funzionari di un normale Ispettorato statale; – il Wehrforschungsgemeinschaft, una specie di super comitato per le ricerche belliche, nominalmente alle dipendenze del Reichsmarshall Goring (nella sua qualità, onorifica, di Prasident des Reichsforschungrates) e, ufficialmente, diretto dal suo propugnatore, il prof. Dr. Ing. W. Osenberg, un membro influentissimo del partito, appartenente alla Sezione III SD-SS (Gestapo). Questo organismo, pur essendo stato sanzionato da un decreto hitleriano nel novembre del 1944, aveva cominciato a prendere forma nella sua branca segreta (destinato poi a trasformarsi nello Stato Maggiore Tecnico delle SS) fin dal giugno precedente, avvalendosi della collaborazione di uno stuolo di informatori a diffusione capillare, nell’industria, nelle Università e presso ogni centro sperimentale degno di attenzione.

 

1941 – Primo collaudo ufficiale di una V7

Il tecnico Hermann Klaas di Mulheim – Ruhr aveva lavorato ai progetti di Shauberger, e basandosi sugli studi di quest’ultimo costruì già nel 1941 il primo modello sperimentale di un disco volante. Invenzione che fu realizzata dai tedeschi e che volò con incredibile successo. L’oggetto a forma discoidale aveva un diametro di m.2,40 con un piccolo motore elettrico speciale , ma molto veloce. Esso si innalzò subito verticalmente, ma andò ad urtare contro il soffitto dell’officina che era alto 8 metri, distruggendosi.

Altre costruzioni vennero studiate sulla base principale di Shauberger da altri scienziati e costruiti in Boemia e più tardi presso Breslau (dove lavorava il gruppo di Miethe). Qui vennero usati un tubo pressostatico più forte (identico a quello usato per le V1). I tre modelli costruiti corrispondevano circa, a parte la disposizione degli ugelli, al prototipo del modello Bellonzo – Schriever – Hamermohl.

Gli ugelli, dovevano essere orientabili per poter ottenere l’ “effetto Coanda”, che rende possibile la salita verticale del disco volante (anche se successivamente Miethe fece una costruzione migliore).

Una volta che il disco aveva raggiunto l’altitudine voluta, passava al volo orizzontale. Ovviamente queste manovre non erano semplici. Oggetti come questi vengono a tutt’oggi costruiti in gran segreto sia in Occidente che in Russia, anzi quest’ultima in due luoghi diversi. Naturalmente vi furono altri progetti e prototipi mai completati.

  • Note

Miethe, deportato in Siberia, in seguito lavorerà in USA presso la A.V.RoseCompany

 

1942 – L’aviazione stratosferica

L’aviazione stratosferica su studi presentati nel 1935, fino a quel momento rimasero confinati nel limbo delle più audaci teorie – l’attenzione degli esperti italiani si appuntava su di un tipo di motore a reazione molto promettente, l’Autoreattore, il cui schema, per la verità, era stato proposto molti anni prima dal tecnico francese René Lorin, in base alle ardite, ma corrette anticipazioni di natura gasdinamica.

Date le difficoltà meccaniche insite nel principio, quegli studi non andarono oltre le precise formulazioni fisico-matematiche elaborate dal gen. Gaetano Arturo Crocco. L’interesse sollevato negli ambienti militari fece però nascere l’idea che per ottenere dei risultati concreti con questi ordigni; battezzati “proiettili slittanti” occorreva seguire un diverso indirizzo concettuale chiamando l’Aereotecnica in aiuto alla Balistica.

Lo spunto per l’evoluzione dell’idea sarebbe stato fornito al principio dell’ “ala disco girevole”, proposta dall’Ingegner Guido Tallei in sostituzione delle ali fisse rettangolari.

Il suo curioso aereoplano – che si ispirava al “diri-disco Rota” – risultava infatti sostentato da una grande ala lenticolare, cava e rotante, di forte spessore.

I modelli volanti in scala ridotta nel biennio 1930/1931, avevano confermato la possibilità di ottenere dei buoni coefficenti di penetrazione aereodinamica e una discreta stabilità giroscopica. Tuttavia l’affinamento delle cellule ordinarie e la disponibilità di motori più potenti avevano sconsigliato lo sviluppo della complicata formula, sebbene l’inventore avesse steso nel frattempo i piani dettagliati per un grande velivolo da 50 metri diametrali.

Pare che l’accertamento sperimentale della validità del principio dell’autoreattore venisse segretamente condotto a termine presso un laboratorio distaccato, ma dipendente dall’Università di Torino, con la partecipazione di alcuni esperti della Sezione “Turbine a combustione interna” dell’Istituto Nazionale Motori – adattando allo scopo un “maneggio aereodinamico”, utilizzato in precedenza dal capitano Burzio per la misura della resistenza aereodinamica degli ordinari proiettili cilindrici alle velocità dell’ordine transonico.

La rotazione dei proiettili discoidi, ottenuta per mezzo di “getti” periferici, per risultare efficace ed evitare il ricorso a delle velocità angolari molto elevate, comportava però un forte ampliamento diametrale degli ordigni.

Un proietto discoide, balistico all’origine, era quindi fatalmente destinato a diventare una grande bomba semovente ossia un’aereodina (“turbo proietto”).

L’interesse sollevato negli ambienti militari fece però nascere l’idea che per ottenere dei risultati concreti con i “proiettili slittanti” occorreva seguire un diverso indirizzo concettuale chiamando l’Aereotecnica in aiuto alla Balistica. Ciò – secondo il professor Giuseppe Belluzzo, termotecnico di chiara fama e Ministro dell’Industria nel periodo 1940-1943 – venne appunto in Italia, riadottando per i proietti la forma circolare, alla vigilia della seconda guerra mondiale, ma fu solo nel 1942 cheutilizzando i risultati ottenuti da una segreta unità speciale operante nel 1938 sul fronte nazionalista spagnolo con un tipo sperimentale di proietto piatto e rotondo realizzato in base agli ultimi studi del generale italiano Vittorio Cordero di Montezemolo – venne steso il progetto definitivo di una bomba volante chiamata “turboproietto”. Bomba semovente che era di forma lenticolare e molto economica perché di costruzione relativamente semplice se comparata al complicatissimo razzo tedesco V2.

 

1942 – I combustibili sintetici (1)

Sin dal 1942 gli studiosi germanici avevano indirizzato le loro ricerche nel settore dei carburanti e delle telearmi. I loro sforzi, dopo lunghi studi ed esperimenti, furono coronati da un pieno successo. Riuscirono infatti a produrre un tipo di carburante di inaudita potenza sottoponendo a particolari procedimenti e reazioni chimiche vari elementi e sostanze fra cui il carbone minerale.

Il carburante estratto da una tonnellata di tali sostanze non superava il quarto di litro e corrispondeva press’a poco a 50 litri di benzina.

La scoperta di questo composto chimico rese possibile in un secondo tempo la costruzione di un aeromobile che accomunava le caratteristiche tecniche dell’aeroplano e dell’elicottero.

Il suo primo collaudo diede però dei risultati assolutamente negativi, in quanto la lega metallica del motore non riuscì a supportare la temperatura sbalorditiva sviluppata dal nuovo carburante.

 

1942 – La V7 italiana

Secondo il professor Belluzzo, nel corso del 1942 era stato ultimato “nell’intento di fornire nuove armi alla Patria in guerra, il progetto di uno strumento formidabile per la vittoria. Vittoria che si sarebbe realizzata se la moralità e la competenza di alcuni uomini, che oggi vanno per la maggiore, fossero state diverse”.

Il principio meccanico della bomba era davvero geniale e molto semplice. La sezione schematica e le viste fondamentali, di profilo e di pianta, del turboproietto danno infatti una chiara idea del sistema di funzionamento degli “autoreattori rotanti”.

 

1943 – Nuovo progetto di turboelica

Un progetto più avanzato di turboelica, venne proposto dalla consorziata Heinkel – Hirt, che avrebbero dovuto montare invece un compressore centrifugo di tipo intermedio fra il centrifugo e l’assiale – il “compressore a stadio diagonale” – disegnato per lavorare con delle voluminose mandate d’aria e delle forti pressioni d’esercizio

 

1944 – Motori sperimentali delle V7

Avendo, nella primavera del 1944, un “motore a schemi verticali” azionato un veicolo in un modo ritenuto già soddisfacente, venne intrapresa anche la costruzione dell’aeroplano. Le direttive di massima urgenza imposte dal capo della polizia segreta, Laurentj Beria, incontravano però l’aperta opposizione degli esperti che giudicava prematuro e quindi pericoloso l’adattamento pratico dei primi ed ancora incerti risultati sperimentali.

 

Progetto di una V7 (1)

L’ingegnere Alexander Lippisch, presso il Luftfahrtforschung di Vienna progettò un modello di UFO indicato negli incartamenti con la sigla “L-13/A” un modello di forma triangolare con un’apertura alare di soli 6 metri, per una lunghezza di 8 metri ed un peso totale di appena 2’700 Kg.

Questo modello simile ad una punta di freccia, col pilota collocato in posizione prona entro una minuscola cabina prodiera “annegata” completamente nello spessore alare, questo tipo di caccia risultava appunto contrassegnato longitudinalmente da una bassa prima stabilizzazione dorsale. Prima che aveva dimostrato la sua efficienza nelle prove della galleria del vento supersonica di Gottingen fino ad un numero di Mach 3 (pari a circa 3’600 Kn/h).

Sia i piani progettistici che il modello sperimentale caddero in mano alleata quando gli uomini della britannica ““T- Force” entrarono con successo in un accrocco cavernoso austriaco del Salzkammergut, allorché l’Armata Rossa aveva travolto le difese apprestate dai tedeschi nella regione del Lago Balaton scavalcando la “Fortezza alpina” che si rilevò sempre più mattuabile.

 

1944 – Progetto di una V7 (2)

Un velivolo tedesco ad ali incernierate aveva superato lo stadio di semplice progetto. Anzi, un velivolo del genere era già stato quasi ultimato nel 1944 ad Oberammergau presso gli stabilimenti della Messerschmitt e poi trasferito, in extremis, a Lofer nel Tirolo, dove il Ministerium Speer gestiva un centro sperimentale per delle ricerche speciali di carattere aeronautico e balistico.

Con le ali spiegate, il TAL Gelenkfluegel Flugzeug sembrava uno snello monoplano da caccia, salvo che per l’inversa rastremazione della pianta alare. (Il massimo valore della “corda” veniva infatti a trovarsi all’estremità delle semiali e ciò conferiva al velivolo una eccezionale stabilità trasversale nelle delicate fasi di decollo e atterraggio e nel volo lento in alta quota). Con le ali ripiegate all’indietro sino a combaciare con la fusoliera, per adeguarle alle andature supersoniche, era invece perfettamente simile nella sua forma in pianta a quelle “frecce” di carta con le quali ci si divertiva da ragazzi.

Naturalmente, l’originale velivolo avrebbe dovuto ricevere un potente motore a reazione.

Ancora prima di questo aeroplano, la Messerschmitt aveva impostato ed ultimato il prototipo di un altro velivolo ad ali incernierate, un caccia con ala geometrica variabile, siglato ME- P- 1101.

Nel 1945 stava per passare alle prove in volo quando venne catturato dagli americani.

Per le costruzioni di pre-serie, era prevista l’applicazione di un turbo getto ventrale Heinkel He- S- 011 da 1’300 Kg/ spinta in luogo del mono potente Junkers Ju- Mo- 004- B, montato provvisoriamente sull’esemplare sperimentale, le cui caratteristiche erano le seguenti:

Apertura alare (max) m. 8,24

Lunghezza m. 9,17

Peso Totale Kg. 4’070

Velocità max 981 Km./h a 7’000 m.

Velocità d’atterraggio Km./h 171

Autonomia 1500 Km.

Tangenza pratica 13’800 m.

Armamento da 2 a 4 cannoni Rheinmetall MK 108 prodieri da 30 mm.

 

1944 – I combustibili sintetici (2)

I professori Sanger e Busemann provarono presso il LuftfahrtforschungHerman Goring di Braunschweig, un combustibile per razzi formato da una sospensione di polverino d’alluminio in olio Diesel che, alla densità limite di 1,2 Kg/dmc., si manteneva discretamente stabile e omogeneo per circa una trentina di giorni, ma poi si convenne che non era pratico e le ricerche vennero troncate.

Altrove, pare nell’Austria superiore, a Linz, o forse ancora più su, a Leuna o nei laboratori segreti sotterranei di Konewka, presso Lodz, le ricerche invece sicuramente continuarono.

Altri centri che si occupavano di combustibili “non convenzionali” operavano a Brux, in territorio sudeto, in Renania e nella Foresta Nera.

A Ludwigshafen, era principalmente il professore Wilke che si occupava di combustibili speciali derivati dalle varie sintesi basate sull’uso del carbone.

A Brounschweig, l’ L.F.A. (Luftfahrtforschung)Hermann Goring” disponeva, a partire dal 1943, di un apposito Istituto – “la Sezione R” – dedicato esclusivamente alla ricerca sui combustibili per razzi e motori a getto.

L’Istituto manteneva stretti contatti con i laboratori privati delle maggiori case costruttrici di aerei e motori a reazione per uno scambio informativo ed il controllo dei vari esperimenti. Una migliore idea del fervore delle ricerche germaniche nel campo dei nuovi combustibili può forse essere data dal fatto che – mentre esistevano nel 1944 decine di enti militari e civili che si occupavano di queste ricerche, mobilitando un minuscolo esercito di valenti tecnici del ramo – la sola ditta Bayerische Motoren Werke, nel corso della messa a punto del propellente più adatto per alcuni tipi di bombe volanti antiaeree e antinave, sperimentando più di tremila miscele di tipo liquido, differenti per composizione o dosaggio.

Ad un certo punto, questa mole immensa di preziosi lavori incominciò a denunziare il grave inconveniente della carenza di coordinazione (ripetizione delle stesse prove, continuazione di ricerche già fallite altrove ecc.)

Il Comitato per i Combustibili del Ministerium Speer corse egregiamente ai ripari, ma ormai il rapido precipitare della situazione bellica ed i problemi più impellenti (come la produzione della benzina sintetica e l’incavamento delle industrie relative) non permisero praticamente di raccogliere e unificare i frutti, già maturati o quasi, in modo da riversarli sui campi di battaglia.

In un modo altrettanto frammentario, essi fecero poi parte del bottino scientifico dei vari vincitori – occupanti della Germania.

Degli accenni a questo carburante si troverebbero anche negli incartamenti d’archivio sequestrati sul finire del 1945 presso il Kaiser Wilhelm Institut fur Kohlenforschung a Mulheim, nella Ruhr, per cui è ragionevolmente da supporre che il luogo di produzione dei primi campioni sperimentali si trovasse nella Renania, nel Badeno, al massimo, nella Bassa Baviera.

 

1944 – Collaudo di una V7

Dopo anni di lavoro, di studi e di collaudi, si trovò solo nel 1944 una lega capace di resistere all’enorme calore sviluppato dal “concentrato di carbone”. Cosicché un velivolo dalla forma circolare poté finalmente sollevarsi nell’aria, raggiungendo delle velocità di gran lunga superiori a quelle di tutti gli altri tipi esistenti.

Una caratteristica che distingueva fondamentalmente il nuovo mezzo dagli altri aerei era la sua particolare capacità di innalzarsi in linea retta nel giro di pochi secondi, mettendo in seria difficoltà ogni inseguitore.

Visto il successo delle prove, il Quartier Generale germanico ordinò alora la costruzione di una prima serie di cinque di questi aeromobili e propose di utilizzarli come apparecchi da ricognizione ma, a costruzione ultimata, Hitler ne sconsigliò l’impiego immediato sostenendo che, essendo numericamente troppo scarsi, avrebbero potuto servire meglio in seguito per altri scopi.

Il Fuhrer ordinò personalmente che fossero smontati, caricati a bordo di alcuni sommergibili giganti – gli U Boot XXI – e trasportati presso una base segreta dell’Antartide, o presso la Terra della Regina Maud.

Tutto ciò avvenne poco prima della caduta di Anversa, che diede definitivamente in mano agli Alleati il segreto delle telearmi tedesche V1 e V2.

 

1944 – Il sistema propulsivo del Lippisch P-13

L’originale sistema propulsivo del caccia P-13 del tipo ad autoreazione, semplicissimo, leggero e assai potente. Risultava infatti formato da un tubo corrente da prora a poppa, con le estremità sagomate in modo tale che durante il volo l’aria vi si ingolfasse attraverso l’apertura anteriore –giungendo fortemente decelerata e quindi autocompressa nella più larga camera centrale che conteneva il combustibile – per poi proseguire, dopo essere stata surriscaldata dalla combustione, verso la parte posteriore del tubo e sgorgare con forza e velocità altissime dall’apertura caudale dell’aereo (che risultava costruito “intorno” al propulsore).

La novità assoluta del sistema era però rappresentata dalla sostituzione della benzina con delle speciali bacchette di carbone collocate a corona intorno alla parete interna del combustore centrale.

Bacchette che venivano portate all’incandescenza all’atto del decollo del velivolo – prodotto da un grosso razzo ausiliario sganciabile ad operazione ultimata – assicurando poi la sua propulsione supersonica.

Per prolungare la durata del volo o aumentarne la velocità, il pilota poteva irrorare il carbone rovente con della paraffina per mezzo di adatti spruzzatori.

Si era calcolato che settecento od ottocento chilogrammi di carbone polverizzato ed impastato in forma di grosse e lunghe bacchette, potessero garantire un’autonomia normale di 45 minuti ad una velocità di circa 1’600 Km./h., aumentabili per breve tempo a 3’000 m. mediante il riferito metodo di ravvicinamento della combustione.

Per appoggiare e in parte anche per avvalersi dei risultati di queste ricerche, nel 1944 gli stabilimenti Skoda di Praga istituirono una sezione speciale – l’Avia Werke – per il progetto e la costruzione di aereoplani da caccia di vario tipo, uno dei quali era previsto per le andature supersoniche e risultava mosso da un propulsore del tutto simile a quello equipaggiante i caccia Lippisch.

Fornitrice del materiale combustibile era la ditta Heinrich Schmitt Werke K.G. di Francoforte sul Meno, che fabbricava vari tipi di bacchette combustibili – con polveri o granuli di carbone macinato e impregnato con delle resine sintetiche chiamate Schaumkohle (schiuma di carbone).

Gli esperimenti preliminari, condotti in sincronismo con quelli del professor Sanger presso i laboratori D.F.S. di Ainring, diedero però dei risultati piuttosto deprimenti: “la “schiuma di carbone” ad un certo punto, per via del forte calore, si sgretolava rapidamente, disattivando il ciclo motopropulsivo dell’aeroplano.

L’avanzata sovietica fece restare il caccia Skoda solo sulla carta, mentre i modelli Lippisch non andarono oltre la fase di prova della galleria del vento, ma nel frattempo gli stabilimenti Schmitt –in seguito intensificata migrazione delle industrie di guerra verso il massiccio alpino – si erano trasferiti nella regione del Berchtesgaden.

 

1944 – Costruzione di vari modelli di V7

Nell’autunno del 1944 lo Stato Maggiore Tecnico delle “SS” decisero di accelerare i tempi, visto l’evolversi delle avanzate forze alleate concomitanti con gli attacchi russi, rendendosi così conto del breve tempo disponibile; i lavori vennero fatti continuare presso una sezione segreta, operante nei pressi di Lonenghof all’ Istitut fur Radium Forschung, dipendente dall’ Accademia Viennese delle Scienze che li condusse quasi al termine con la partecipazione di alcuni tecnici provenienti dai laboratori dei complessi industriali Siemens – Halske, Allgemeine Radium, Auer Gesellschaft e della sezione R” dell’ Istituto aereonautico L.F.A. di Volkenrode.

A Lonenghof, venivano studiati anche dei campioni sperimentali di elementi chimici artificiali. Uno di questi radio elementi, venne scoperto da un certo professor Lehman (con la collaborazione dello svizzero Dallenbach) – e chiamato Paulinium in onore del fisico svizzero di origine viennese, Wolfang Pauli (Premio Nobel 1945).

Il professor Lehman – uno dei cosiddetti “Ariani Onorari”, propose di costruire dei velivoli stratosferici di forma piatta e tondeggiante condotti in alta quota da un motore termico (per esempio un razzo) e poi propulsi dal Paulinium pompato e diffuso in modo omogeneo attraverso una superficie porosa.

Quei velivoli avrebbero potuto fare moltissime volte il giro del mondo senza atterrare e, nonostante il modesto carico utile concesso dalla debole spinta complessiva, sarebbero stati veramente preziosi per la ricognizione strategica.

Tra gli svariati modelli proposti, l’Ufficio Aereo Tattico della Luftwaffe prese anche in considerazione un aeromobile preposto su di un progetto dell’ingegner Zollner che lavorava presso il laboratorio chimico fisico di Neumarkt nel Salisburgo – proponendo un elicottero a cabina sferica centrale attorniata – al pari di un pianeta di Saturno in miniatura – avente un anello molto piatto, molto largo e fittamente fessurato in modo da realizzare una specie di vasta elica multipla, alquanto simile al rotore di una turbina o, per meglio dire, a quello di una parte pneumatica dei “Turbo fans” anglosassoni di recente costruzione.

La poderosa discarica elettrostatica – da innescare solo ad una certa distanza di sicurezza dal suolo – attraverso il bordo d’uscita (conduttore) dei profili palari simultaneamente assicurava la rotazione dell’anello palettato (componente tangenziale) e provvedeva alla traslazione dell’aeromobile sia tramite l’aria accelerata da quella specie di elica, sia grazie alla componente assiale della spinta elettrostatica.

Dal ventre dello sferoide centrale un effusore doveva proiettare in continuità un velocissimo flusso di vapori – provenienti dal circuito interno di raffreddamento del generatore – che funzionavano nel contempo da secondo elettrodo per la scarica della polarità di segno opposto.

 

1944 – Sabotaggi alleati alle V7

Ai primi del mese di settembre 1944 il Fuhrer in persona aveva insignito del “distintivo d’onore Fritz Todt” nove inventori i cui nomi nell’interesse della produzione bellica germanica “erano stati tenuti accuratamente segreti.

L’intercettazione telefonica di colloqui di alcuni gerarchi nazisti della Propaganda offrì delle preziose indicazioni sul genere delle ricerche e sulla ubicazione dei laboratori segreti diretti dagli esperti decorati.

Gli alleati, pazientemente e pericolosamente schedarono e controllarono le informazioni raccolte, ogni elemento venne vagliato alla luce delle precedenti azioni di sabotaggio. Fu a questo punto che venne presa in seria considerazione la complessa e rischiosa contro – operazione denominata “Tarzan” destinata a sconvolgere tutti i piani nazisti per l’allestimento delle “armi segrete dell’ultimo minuto”.

Simultaneamente gruppi di false “SS”, in seguito identificate quali agenti inglesi, penetrarono di notte nei laboratori decentrati e sottoterra ubicati nel Tirolo, Salisburgo, Carinzia e Foresta Nera, dinamitando le apparecchiature e i macchinari, asportando i documenti più importanti e bruciandone gli archivi.

Otto scienziati: i professori Haver, Hummel, Wisch, Starke, Von Zschocke, Bucker, Ergang e Von Muckle caddero sotto l’attacco degli alleati.

Le autorità tecniche naziste accusarono in silenzio il grave colpo che le privava praticamente di ogni possibilità di riscossa e minimizzarono il fatto in un rapporto inviato ad Himmler richiamando a disperata raccolta tutte le forze e le disponibilità superstiti.

Altri campi sperimentali vennero scoperti dall’avanzata alleata solo dopo lo sfondamento del fronte germanico ad Hillersleben efficentemente bombardati dall’VIII° Squadra aerea americana e della RAF, stroncando definitivamente i lavori Germanici.

L’operazione “Tarzan” unita all’attacco ad Hillersleben anticipò le mosse tattiche dei tedeschi che dopo l’occupazione norvegese, prescelta dai tedeschi per l’erezione di aerodromi particolarmente attrezzati per il bombardamento delle isole britanniche e parte del continente americano. Infatti i campi di Vaernes e di Stavanger potevano già ospitare non meno di quattrocento velivoli speciali, e la prima incursione era stata fissata nel quadro dell’”Operazione Osterei“, per il 27 aprile 1945.

 

Note (Composizione dei laboratori sotterranei)

Un enorme complesso sotterraneo degli stabilimenti Mittel – Werke e denominato dai tedeschi con il codice: M-Werke, operante tra le montagne dell’Harz nei pressi di Nordhausen, era formato da due lunghi tunnel paralleli, lunghi ciascuno un chilometro e mezzo e collegati fra loro da 62 gallerie trasversali minori per un totale di circa 20 Km. Di installazioni sotterranee.

Possedevano dei minuscoli fortini sferici prefabbricati in cemento – chiamati “Kugelstand” – incapsulati nottetempo nel terreno in modo da risultare praticamente invisibili anche a distanza assai ravvicinata. Le “Kugelstand” erano degli sferoidi cavi di cemento armato del peso di 1’700 Kg. Co un diametro interno di metri 2,40, risultanti dalla unione di sei parti prefabbricate, costruite sul progetto della ditta bavarese Dyckerhof e Widmann che, nel novembre 1944, li propose alla Wehrmacht come fortini facilmente trasportabili, interrabili, inaffondabili nei terreni paludosi e invisibili alla ricognizione aerea. Nonostante il modesto spessore del guscio della costruzione (cm.4) i primi esemplari sperimentali sostennero senza danni il sovraccarico costituito dal passaggio di un carro armato pesante.

La lunghezza minima della pista di decollo era delle seguenti dimensioni:

Lunghezza della volta m.325

Larghezza m.135

Altezza centrale m.45

Spessore della volta in cemento armato m.5,30 con ulteriore riporto di terriccio, da farsi a costruzione ultimata, allo scopo di aumentare sino a 7 m. lo spessore protettivo, creando così delle oblunghe collinette artificiali fittamente ricoperte di vegetazione erbacea e boschiva, attorniate da propaggini irregolari simulanti delle naturali elevazioni del terreno per ingannare la ricognizione aerea.

 

1944 – Le apparecchiature per interferenze magnetiche

Nell’autunno del 1944, a Oberammergau, nella Baviera alpina, il centro sperimentale della Luftwaffe, l’O.B.F., aveva ultimato una serie di ricerche riguardo a delle apparecchiature elettriche capaci di interferire sul funzionamento dei motori fino ad un massimo di 30 m. di distanza, mediante la produzione di intensi campi elettromagnetici. Mettendo così in avaria i motori di un aereoplano provocandone l’immediata caduta.

Approvato il progetto, lo Stato Maggiore Tecnico delle “SS”, aveva adattato l’idea del “radio-disturbo” da poter applicare su un nuovo velivolo che era in fase di collaudo presso una base segreta dello Schwarzwald.

Questa macchina nata per il disturbo aereo nei confronti dei continui attacchi nemici, aveva una forma rotonda e corazzata, molto simile al guscio di una tartaruga, era mossa da uno speciale motore a reazione, anch’esso piatto e circolare, il quale generava un vasto alone di fiamme luminose.

Il suo nome di battesimo fu “Fuerball” (palla di fuoco). Non portava né armi e nemmeno piloti, era radiocomandata solamente all’atto del decollo, ed una volta in quota, inseguiva l’obiettivo, senza entrarne in collisione, ma solamente accostandolo ed emettendo il suo raggio invisibile di disturbo, quanto bastava per far impazzire le bussole di bordo e il radar, nonché ponendo in crisi il funzionamento del motore dell’aereo nemico.

Il fiammeggiante alone provocato era ottenuto con una combustione molto “ricca degli additivi chimici diselettrizzanti, jonizzando intensamente l’atmosfera nelle adiacenze dell’aereoplano, generalmente in corrispondenza delle estremità alari o degli impennaggi, assoggettando il radar di bordo H.2.S. L’azione di potenti campi elettrostatici ed elettromagnetici pulsanti, generati questi ultimi da grandi radio-valvole Klistron catafratte e recanti una speciale protezione sia antiurto sia anticalore.

Siccome un arco metallico percorso da una corrente oscillante di opportuna frequenza – uguale cioè a quella impiegata dalla stazione radar – può cancellare i “blips”, ossia le onde di ritorno del bersaglio, i “Fuerball“, pur così visibili nella notte, sfuggivano praticamente al rilevamento dei più potenti radiolocalizzatori americani del tempo.

Più di una volta i piloti americani ed alleati si trovarono faccia a faccia con questi ordigni, e in tutti i casi, senza potersi dare una spiegazione, si tennero sempre a debita distanza, evitando qualsiasi azione sia d’attacco che difensiva nei confronti di questi aeromobili di disturbo.

Il progetto del “Fuerball” venne realizzato dapprima presso gli stabilimenti aeronautici di Wiener Neustadt, col concorso del Flugfunk Forschunganstalt di Oberpfaffenhoffen, importante istituto governativo operante a 30 miglia a sud di Monaco di Baviera, e impiegante circa 800 tecnici per le ricerche nel campo delle alte frequenze, il radiocomando missilistico, le apparecchiature radariche, le radiazioni infrarosse e l’elettronica in genere. Diretto dal Prof. Dieckman, seguito poi dal dottor Ahrens.

A testimonianza di chi vide allora i primi brevi voli di collaudo dell’ordigno, ancora privo di dispositivi elettrici, assicura che “…di giorno esso aveva l’aspetto di un disco luminoso rotante su sé stesso e di notte appariva come un globo in combustione”.

Lo stesso Hermann Goring ispezionò varie volte quei lavori perché sperava, come infatti avvenne che il principio meccanico potesse produrre in seguito anche un’arma offensiva capace di ribaltare l’esito della guerra di quel periodo.

Quando i russi incominciarono a premere in direzione dell’Austria, la costruzione dei primi “Fuerball” armati, venne continuata da alcune officine incavernate nello Schwarzwald, ove lavoravano alle dipendenze degli stabilimenti Zeppelin- Werke.

Questi stabilimenti prima del suo decentramento sotterraneo nello Schwarzwald avevano già lavorato nel campo delle apparecchiature radariche segrete, costruendo i riflettori parabolici per i radiolocalizzatori terrestri, attirando sulle officine di Friedrichshafen presso la frontiera svizzera l’”attenzione” dell’Intelligence Service e della RAF un pesante bombardamento da parte di sessanta quadrimotori Lancaster il 20 giugno 1943.

Analogo massiccio bombardamento avvenne nell’ottobre del 1944, quando una pesante incursione britannica ridusse ad un cumulo di macerie la grande stazione di radio disturbo anti-aereo ubicata sul Grosser Feldberg nel massiccio del Taunus. Il centro, che ospitava le migliori apparecchiature tedesche, per la sua posizione geografica proteggeva i distretti industriali della Ruhr e della Saar, la cui produzione – unita a quella della Slesia – era divenuta estremamente vitale per la prosecuzione della guerra, costringendo così i tedeschi all’impiego prematuro di tutti i mezzi di difesa elettronica della serie “Fuerball” (ancora in fase sperimentale), ma grazie alla straordinaria perizia dei membri del 100°Bombergroup che pose in atto sofisticati sistemi antiradar “accecando totalmente” l’operazione “Fuerball“, lo Stato Maggiore Tecnico delle “SS” ordinò la distruzione totale degli aviogetti rimasti in dotazione.

 

1945 – Le armi atomiche tedesche

Il 29 ottobre 1945, a guerra conclusa, rispondendo ad una interrogazione del conservatore P.W.Donner, il quale aveva chiesto al governo inglese se si fosse messo in contatto con gli scienziati tedeschi che avevano svolto ricerche atomiche presso i laboratori segreti dell’isola danese di Bornholm (presidiata dai sovietici dal maggio 1944), il premier Attlee dichiarò evasivamente che il Governo Inglese era “…perfettamente al corrente di tutte le ricerche condotte dai nazisti nel campo dell’atomo”.

Da esso risultava che gli scienziati operativi con le “SS” erano circa 5’000 uomini mentre gli esperti americani, operanti in concorrenza, non erano oltre i 200.

Da ciò risultava la conferma definitiva che i tedeschi avevano progettato un aeroplano a propulsione atomica capace di raggiungere teoricamente delle velocità dell’ordine delle 10’000 miglia orarie (16’000 Km./h.) senza poterlo portare a termine perché negli ultimi tempi della guerra “…le loro capacità inventive risultavano troppo superiori alla effettiva possibilità di trasferire al campo industriale i risultati delle loro ricerche teoriche.

IL RADDRIZZATORE

February 15, 2007

La tensione alternata fornita dal trasformatore di rete, da questa galvanicamente separata e ridotta all’ampiezza richiesta, deve essere poi raddrizzata e filtrata con un adeguato capacitore di livellamento. Il circuito più semplice per generare una tensione CC è quindi quello di Fig. 1. Qui abbiamo il cosiddetto raddrizzatore ad una semionda, che in genere però è adatto solo per l’alimentazione di apparecchi a basso consumo o ad elevata frequenza operativa, dato che la lunga pausa che si manifesta durante il semiperiodo in cui non si ha conduzione nel diodo obbliga all’utilizzo di un capacitore di elevato valore e ad un trasformatore più potente.Il tipico raddrizzatore a semionda è costituito da un circuito serie formato dall’avvolgimento secondario del trasformatore, un diodo raddrizzatore ed il carico. Il trasformatore deve essere calcolato per sopportare la massima corrente efficace che percorre il diodo: il fattore di utilizzazione è basso, e la corrente unidirezionale può, in alcune condizioni, saturare il nucleo magnetico del trasformatore, con conseguente aumento della corrente di magnetizzazione e delle relative perdite per isteresi. Per questo motivo non viene utilizzato molto frequentemente, se non in circuiti di alimentazione a bassa potenza, quali i ricevitori radio o TV. La tensione continua di uscita è solo 0,45 volte quella efficace, mentre la tensione efficace è 1,57 volte l’onda di uscita e il valore di picco è 3,14 volte la tensione continua di uscita,come mostrato in tab.1.

Fig. 1

CARATTERISTICHE DEL RADDRIZZATORE AD UNA SEMIONDA

Tensione di uscita
Tensione continua di uscita Vm (valor medio) 0,45 VL
Tensione efficace di uscita Vo rms 1,57 Vo
Valore di picco della tensione di uscita VoM 3,14 Vo
Corrente di uscita  
Corrente media in ciascun ramo del raddrrizzatore Io
Corrente efficace IFrms per ramo 1,57 Io
Corrente di picco IoM per ramo 3,14 Io

E’ importantissimo evidenziare il fatto che la tensione di uscita, oltre al valor medio, contiene numerose componenti alternate di cui la più grande (fondamentale) ha una frequenza pari a 50 Hz, la altre sono componenti armoniche con frequenze doppie, triple, quadruple, ecc…

Nella Fig.2 troviamo lo spettro di Fourier del segnale di uscita raddrizzato a semionda per una tensione efficace d’ingresso di 15 volt; possiamo osservare:

·         una componente continua di poco meno di 10V

·         una fondamentale ( 50Hz) di ampiezza 15V

·         una seconda armonica ( 100Hz ) di ampiezza circa 7V

·         altre armoniche di ampiezza via via decrescente

Fig. 2 

Osserviamo che il segnale raddrizzato a semionda è molto ricco di armoniche, al contrario del  segnale originario che ne contiene solo una.

Applicando l’analisi di Fourier è possibile calcolare il valore efficace della somma di tutte queste componenti:

Vw = 1,21 Vm = 0,54 Vin-eff

dove abbiamo:

Vw valore efficace di tutte le componenti alternate, chiamata tensione di ripple.

 Vm è la componente continua sovrapposta alla componente pulsante.                 

Vin-eff è la tensione efficace d’ingresso.                                     

Viene detta ampiezza di ripple il seguente rapporto:

Aw = Vw / Vm

da cui possiamo enunciare:

La tensione di uscita di un raddrizzatore monofase ad una semionda ha un’ampiezza di ripple pari ad 1,21 volte la tensione efficace d’ingresso.

                                   


Follow

Get every new post delivered to your Inbox.