Il classico sistema decimale per poter rappresentare i diversi numeri, utilizza dieci cifre da 0 a 9. Il sistema binario è la base della rappresentazione dei dati nei computer. Infatti, ogni informazione elaborata dai computer viene convertita in codice binario, che consiste in una sequenza di 0 e 1. Il motivo per cui il sistema binario è utilizzato dai computer è legato al fatto che le loro componenti fisiche sono progettate per lavorare con tensioni di soli due valori: 0 e 1.
0, che corrisponde alla mancanza di tensione, quindi a 0 volt
1, che corrisponde invece alla presenza di tensione, in genere 5 volt
I bit possono essere rappresentati in vari modi: valori di tensione (es: modem), polarizzazione magnetica (es: hard disk), luce/buio (es: cd-rom).
In aggiunta al sistema binario, esistono anche altri sistemi numerici posizionali come l'ottale e l'esadecimale, che vengono utilizzati in ambito informatico per semplificare la rappresentazione di grandi quantità di dati in modo più compatto ed efficiente.
Per convertire un numero dal sistema binario all'ottale, si raggruppano i bit in gruppi da tre partendo dalla cifra meno significativa e si convertono in cifre ottali. Per convertire un numero dal sistema binario all'esadecimale, si raggruppano i bit in gruppi da quattro partendo dalla cifra meno significativa e si convertono in cifre esadecimali.
Per quanto riguarda la conversione dal sistema esadecimale al sistema binario, si può utilizzare la stessa metodologia utilizzata per la conversione dal sistema binario all'esadecimale, partendo dalla cifra più significativa. Invece, per la conversione dal sistema decimale all'esadecimale, si può dividere il numero decimale per 16 e utilizzare i resti delle divisioni come cifre esadecimali.
Massimo intero rappresentabile: se ho n cifre in base 2 (n bit) posso rappresentare al massimo il valore 2^n -1 con al minimo zero.
In informatica le cifre binarie vengono generalmente chiamate bit, dall’acronimo inglese di binary digit. Un bit è l’unità fondamentale all’interno di un pc, e siccome la memoria nel PC viene normalmente organizzata in più celle da 8 bit, ogni cella prende perciò il nome di byte.
il B, byte, equivale a 8 bit;
il kB, kilobyte, equivale a 2^10 byte, cioè a 1.024 byte;
il MB, megabyte, equivale a 2^20 byte, cioè a 1.048.576 byte;
il GB, gigabyte, equivale a 2^30 byte, cioè a 1.073.741.824 byte;
il TB, terabyte, equivale a 2^40 byte, cioè a 1.099.511.627.776 byte.
Transistor:
Il transistor è un componente elettronico che permette di amplificare e controllare il flusso di corrente elettrica in un circuito. In pratica, il transistor funziona come un interruttore che può essere aperto o chiuso in base alla corrente applicata alla sua base.
Il transistor è stato uno dei componenti fondamentali nella rivoluzione tecnologica degli anni '50 e '60 che ha portato alla nascita dei primi computer elettronici. Grazie al transistor, è stato possibile creare circuiti elettronici più piccoli, più efficienti e più affidabili rispetto ai precedenti circuiti a valvole termoioniche.
Nel caso specifico dell'addizione binaria, i transistor vengono utilizzati per creare sommatori binari, che sono circuiti logici in grado di sommare due numeri binari bit per bit. Un sommatore binario è costituito da più blocchi logici, ognuno dei quali è in grado di sommare due bit di input e generare un bit di output e un eventuale riporto.
Overflow:
L'overflow rappresenta un errore che si verifica quando il risultato dell'operazione di somma supera la capacità massima di rappresentazione del sistema numerico utilizzato. In caso di overflow, il risultato ottenuto non è corretto e può causare problemi in altre parti del circuito. Per evitare l'overflow, è necessario utilizzare un numero di bit sufficiente per rappresentare i numeri che si vogliono sommare, oppure utilizzare algoritmi di correzione dell'overflow.
Segno
Il sistema di rappresentazione dei numeri con segno è fondamentale per effettuare operazioni aritmetiche con numeri positivi e negativi. Per risolvere questi problemi, esistono due metodi di rappresentazione dei numeri con segno: il complemento a uno e il complemento a due. Uso un bit per indicare il segno, 0=positivo e 1=negativo -> 0100= 4 e 1100= -4; tuttavia ho due modi per scrivere zero, 0000 e 1000 e inoltre le operazioni diventano complicate per il controllo del segno e richiedono più circuiti.
Complemento a uno: se il numero è negativo, inverto tutti i bit, cioè 0 diventa 1 e viceversa -> 0100 = 4 e 1011= -4. Risolvo il problema dei circuiti, ma ho ancora due modi per rappresentare lo 0.
Complemento a due: inverto tutti i bit, poi sommo 1 -> 0100= 4 e 1100= -4. Non ho più due modi per rappresentare lo 0, e per fare la somma posso usare il circuito normale, il segno viene determinato automaticamente. Inoltre tutti i numeri negativi inizieranno con 1.
Inoltre, il valore massimo rappresentabile dipende dalla lunghezza della parola binaria utilizzata. Con n cifre binarie, si può rappresentare un intervallo di numeri che va da -2^(n-1) a 2^(n-1)-1. Ad esempio, con una word di 8 bit si possono rappresentare numeri da -128 a 127.
ASCII (American Standard Code for Information Interchange) è un sistema di codifica dei caratteri utilizzato per rappresentare testo in formato digitale. In origine, ASCII prevedeva 7 bit per la rappresentazione dei caratteri, il che permetteva di rappresentare un totale di 128 caratteri. Successivamente, è stato esteso ad 8 bit, aumentando il numero di caratteri rappresentabili a 256. Tuttavia, i caratteri aggiuntivi variano da stato a stato, a seconda delle necessità locali.
La codifica ASCII rappresenta ogni carattere come un numero decimale, che viene poi convertito in codice binario. Ad esempio, la lettera "A" corrisponde al numero decimale 65, che viene rappresentato in binario come 01000001. In questo modo, il computer può rappresentare ogni carattere come una sequenza di bit, senza dover memorizzare esplicitamente il carattere stesso.
Per rappresentare anche le lettere minuscole, ASCII utilizza un sistema di inversione del secondo bit. In questo modo, la lettera "a" corrisponde al numero decimale 97, che viene rappresentato in binario come 01100001 (in cui il secondo bit è 1).
Alcuni caratteri ASCII hanno origini storiche interessanti. Ad esempio, il carattere "nul" (che rappresenta il valore zero) e il carattere "del" (che indica la cancellazione) derivano dal mondo delle schede perforate, in cui "nul" indicava una posizione senza buchi e "del" veniva usato per indicare un errore corretto bucando tutta la colonna. Altri caratteri come "tab" (che indica una tabulazione) e "cr" (che indica un ritorno a capo) sono stati introdotti per semplificare la formattazione del testo.
Unicode:
Unicode è uno standard internazionale che assegna un numero univoco ad ogni carattere di ogni lingua conosciuta, consentendo una rappresentazione uniforme dei testi in formato digitale. Unicode utilizza una codifica numerica in cui ogni carattere viene rappresentato come un codice a 32 bit, scritto come U+XXXXXX, dove le X rappresentano cifre esadecimali.
Il vantaggio principale di Unicode rispetto ad ASCII è che consente di rappresentare un numero molto maggiore di caratteri, fino a 4,2 miliardi, includendo anche i caratteri di lingue diverse da quelle europee. La settima versione di Unicode, rilasciata nel giugno 2014, include 123 set di sistemi di scrittura e 113.021 caratteri codificati.
Tuttavia, la rappresentazione di ogni carattere in Unicode richiede un notevole spazio di memoria, il che può renderlo inefficiente in alcune situazioni. Per questo motivo, esiste una codifica più efficiente chiamata UTF-8 (Universal character set Transformation Format), che rappresenta i caratteri in modo variabile, utilizzando da 1 a 4 byte per carattere, a seconda della necessità.
UTF-8: Universal character set Transformation Format.
In Unicode ogni carattere occupa svariati byte, tanto spazio per scrivere semplici lettere. UTF-8 è una scrittura più compatta (fino a 31 bit):
In UTF-8, i caratteri più usati in Unicode sono rappresentati con un solo byte, mentre quelli meno usati richiedono fino a 6 byte. Se il primo bit di un byte è 0, allora il carattere è rappresentato da un solo byte e la codifica è compatibile con ASCII. Se il primo bit è 1, allora i bit successivi specificano quanti byte sono necessari per rappresentare il carattere. Ad esempio, un carattere Unicode rappresentato da 3 byte inizia con 1110.
Font
Un font è una rappresentazione grafica di un carattere, che include la sua forma, lo spessore delle linee, l'angolo delle lettere e altri dettagli che definiscono l'aspetto del carattere. I font sono utilizzati in molti contesti, come la stampa di documenti, la creazione di loghi, la progettazione di siti web e la creazione di pubblicità.
TrueType Font (TTF) è uno standard de facto per i file di font. Questi file contengono le informazioni geometriche necessarie per disegnare i caratteri, come le coordinate dei punti, le curve di Bezier e i valori di spessore delle linee. I font TTF sono ampiamente utilizzati in sistemi operativi come Windows e macOS, nonché in applicazioni di produttività come Microsoft Office e Adobe Creative Suite.
Mentre la maggior parte dei font include la rappresentazione di un vasto insieme di caratteri, quasi nessun font rappresenta tutti i caratteri di Unicode. Ad esempio, il Times New Roman, creato per il giornale The Times nel 1931, non include i caratteri per i geroglifici e altri simboli di lingue non latine. Quando un carattere non è disponibile in un font, il sistema operativo o l'applicazione di produttività sostituirà il carattere mancante con un quadratino bianco o un carattere simile.
I font si dividono in diverse categorie, tra cui Serif (con "grazie" o decorazioni) e Sans Serif (senza "grazie"). I font Serif sono spesso utilizzati per la stampa, poiché le grazie possono aiutare la lettura, mentre i font Sans Serif sono spesso utilizzati per contenuti digitali come siti web e schermi, dove la leggibilità è importante anche a dimensioni ridotte e le grazie possono essere riprodotte male.
Viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio necessario per la sua memorizzazione, sia per ridurre l'occupazione di banda necessaria in una generica trasmissione dati digitale. Esistono due tipi, ma in genere si usano insieme. Non sempre funzionano perfettamente, a volte non risparmio spazio. 7Z, RAR, ZIP.
Compressione LossLess: ridurre l’occupazione senza perdere dati, es: file ZIP e durante la decompressione ottengo lo stesso documento.
Compressione Lossy: si perdono dati, ma si cerca di perdere prima le informazioni meno importanti, come i file JPG per immagini.
UTF-8: in input ho 4 byte e in output in genere ne ho 1 o 2, e tornando indietro ritrovo lo stesso input.
Compressione Run Length: i dati vanno interpretati a coppie di byte; il primo byte di ogni coppia dice quante volte va ripetuto il secondo (0 = 1 volta, 1 = 2 volte, ecc). Non funzione se ho ABABABAB, invece è ottimo per AAAABBBBB. Va da 0 a 255 di byte, ma uso y=x+1 per ottimizzare il risultato, non si ripete un numero per zero. Ormai si usa poco.
Compressione TIFF: è un algoritmo di compressione lossless utilizzato inizialmente per i file PDF e per le immagini acquisite da scanner. Questa tecnica utilizza una modalità ibrida con un byte di controllo (N) che indica cosa fare con i byte successivi. Se N è negativo, il byte successivo viene ripetuto |N|+2 volte. Se N è positivo, i seguenti N byte non vengono ripetuti. Ad esempio, AAAABBBCCCABC diventa -2A -1B -1C 3ABC, riducendo la dimensione del file.
Se N è <= 0 (0...-128): ripete il byte successivo |N|+2 volte;
Se è positivo (1..127): i seguenti N byte non vanno ripetuti.
Es: AAAABBBCCCABC --> 4xA 3xB 3xC 1xABC --> -2A -1B -1C 3ABC considerando che se <0 ho |N|+2 --> quindi 10 bytes invece di 13
Compressione con Dizionario: è una tecnica di compressione lossless che suddivide il file in parti analizzate separatamente. All'interno di ogni parte, si identificano le sequenze di bit più frequenti e si salvano in un dizionario associando un numero a ciascuna. Nel file compresso, ogni volta che viene trovata una sequenza presente nel dizionario, viene scritto un carattere di controllo seguito dal numero che la identifica. Tuttavia, questa tecnica richiede la scrittura del dizionario nel file compresso e può essere inefficiente. Suddivido il file in parti (Windows) che verranno analizzate separatamente. All’interno di ogni parte identifico le N sequenze di bit che si ripetono più spesso e le salvo in un dizionario, associando un numero a ciascuna; nel creare il file compresso, ogni volta che trovo una sequenza presente nel dizionario scriverò un carattere di controllo (es: 0) seguito dal numero che la identifica nel dizionario. Attenzione: nel file devo scrivere anche il dizionario ed è complicato e l’algoritmo potrebbe non essere efficienti, inoltre esso divide il file in parti, finestre, e per ognuna viene estratto un dizionario diverso. È la base dell’algoritmo ZIP, salvataggio di immagini PNG (immagini con molto testo)...
Immagine vettoriale: scrivo in un file le coordinate delle forme geometriche che voglio rappresentare, occupa poco e posso ingrandirla all’infinito senza perdere qualità, ma è impossibile per immagini reali.
Analogico e Digitale: il mondo reale è analogico continuo, approssimato ad un numero finito di punti, mentre per i pc è digitale, cioè discreto. Es: l’arcobaleno è fatto da un numero infinito di colori sfumati senza stacchi netti, mentre su un pc, esiste solo un numero finito di colori.
Quantizzazione: conversione di un valore Analogico in Digitale. Ogni volta che inserisco una foto nel computer questa viene quantizzata. Il sistema fa una media dentro il pixel e calcola il valore medio, ma occupa spazio. In genere avviene una doppia quantizzazione.
Immagine bitmap: Bit Mapping; l’immagine è una scacchiera, non per forza quadrata, in cui ogni casella è chiamata pixel.
Bitmap Binaria: un bit per pixel; bit 0 = nero, bit 1 = bianco. Occupa poco ed è ottimo per i testi, non va bene per tutto il resto.
Bitmap Monocromatica: un byte per pixel → 8 bit per pixel, e quasi sempre si rappresenta con il colore nero (“grayscale” o scala di grigi). 0 = nero, 255 = bianco. Occupa ancora poco, ma non abbiamo i colori.
Bitmap a Colori: usiamo i tre colori fondamentali → 3 byte per pixel → 24 bit per pixel: uno per la quantità di rosso (Red), uno per il verde (Green) ed uno per il Blu (Blue) → RGB. L'immagine è buona, ma occupa tanto spazio. 16,7 milioni di colori diversi.
Macchina fotografica: Una macchina fotografica digitale converte la luce in corrente elettrica attraverso il sensore, che è composto da molti pixel. Ogni pixel ha tre fotodiodi che misurano la luminanza e i colori dell'immagine. Più è brillante l'immagine in un punto, più alta è la tensione in uscita da quel pixel. Il numero di pixel che la macchina fotografica produce per ogni scatto è indicato in Megapixel. Più è grande il sensore, migliore è la misura dei fotoni in arrivo. Tuttavia, nei telefoni cellulari è necessario introdurre amplificatori e fotomoltiplicatori per compensare la dimensione ridotta del sensore.
Occhio umano: circa 576 Megapixel. Nell'occhio c'è una concentrazione maggiore nel centro della retina, circa il 90% dei sensori nel 30% della parte centrale. Per la visione periferica ci basta avere un "sensore di movimento". Inoltre l'occhio umano si muove di continuo. Inoltre verso il basso dell'occhio abbiamo una riga in cui non vediamo nulla perché si attacca il nervo ottico in quel punto.
Fotodiodi: è un dispositivo che converte la luce in corrente elettrica. Nelle macchine fotografiche digitali, i fotodiodi sono utilizzati come pixel sul sensore, dove convertono la luce in un segnale elettrico che viene poi elaborato per creare l'immagine finale.
Profondità di colore: è la quantità di bit che sono usati per rappresentare un pixel, in genere per pc 24 bit, ma alcuni dispositivi ne usano di più, come le macchine fotografiche, che usano 14 bit per colore (circa 16.000 livelli per colore e 14x3 = 42 bit per pixel). Il salvataggio dell’immagine in RAW è a 42bit e se la si salva in un altro formato come JPG a 24bit il computer comprime alcuni intervalli di colore associandoli ad altri, è un passaggio monodirezionale.
Quanti bit per ogni canale: 14 bit vs 8 bit
-->E il marrone quindi? Il marrone non esiste, è elaborato dalla retina e dal nostro cervello, è un arancione, led rosso, molto spento circondato da una sorgente luminosa. Inoltre la somma di tutti i colori crea il bianco.
Schermo CRT: o tubo catodico è un tipo di schermo, ormai caduto in disuso, formato sostanzialmente un tubo a raggi catodici nel quale, per formare le immagini, i fasci di elettroni sono convogliati ad hoc su una superficie fotosensibile frontale. Parametro fondamentale di uno schermo a tubo catodico è la dimensione dell'area su cui sono visualizzate le immagini normalmente indicata con la diagonale dell'area e misurata in pollici.
Schermo EPD: Electronic Paper Display (o e-ink), simile a un pezzo di carta. Ogni pixel è dato da una sfera contenente un gel all’interno del quale sono libere di muoversi delle sferette colorate di bianco e nero. Le sferette colorate non differiscono solo per colore, ma anche per carica elettrica: applicando una carica sotto ad ogni sferetta queste si ridispongono all’interno del gel, determinando il cambio del colore.
Consumo corrente solo per girare pagina e la lettura è ottimale anche sotto il sole (Ebook). Tuttavia le sferette impiegano tempo per muoversi nel display e le sferette ogni tanto si incastrano (immagine fantasma) e costringono ad un reset pesante, inoltre per leggere al buio serve una luce.
Polarizzatore: riducono la luce e fanno passare solo la componente orizzontale o verticale, come negli occhiali da sole.
Schermo LCD: è fatto da due filtri polarizzatori ruotati di 90° l’uno rispetto all’altro, con in mezzo delle molecole che, se attraversate da una corrente elettrica, si allineano con esso, cristalli liquidi. Quando le molecole si spostano alterano la polarizzazione indotta dal primo filtro, e la luce può quindi passare attraverso il secondo filtro polarizzatore, sapendo che due filtri polarizzatori messi perpendicolari l’uno all’altro bloccano tutta la luce.
Elettronica
luci sopra e sotto lo schermo
un foglio di carta per riflettere la luce in uscita
plexiglass con inciso un pattern particolare per distribuire la luce in modo uniforme
filtri in plastica che aiutano ancora di più a distribuire la luce
filtri polarizzatori
cristalli liquidi
filtro polarizzato a 90° rispetto al primo
Inoltre lo schermo avrà circa il doppio della luce che vediamo, quindi consuma molta energia. E inoltre per il nero ho sempre la luce accesa, quindi ho il grigio.
Schermo LED: La tecnologia LED (Light Emitting Diode) è costituita da una serie di diodi a semiconduttore che, al passaggio di corrente elettrica, emettono radiazioni luminose, posiziono le lampadine dietro risparmiando spazio.
LCD a colori: ogni pixel dell’immagine richiede tre elementi LCD sullo schermo, detti sub-pixel, davanti ai quali viene posto un filtro colorato di rosso/verde/blu. Per il bianco sono accesi insieme. Nel rosso solo il rosso, nel giallo rosso e verde.
OLED: micro-lampadine led colorate, si basa sullo sfruttamento di un diodo organico a emissione di luce. Il nero lo ho quando è tutto spento, quindi veramente nero, inoltre ho la possibilità di realizzare display flessibili, tv, smartphone e non occorre lo strato che illumina tutto e quindi ho uno strato sottile. Tuttavia il bianco è tutto acceso e consuma di più. Inoltre gli OLED durano, per ora, poco (-12% di luminosità dopo 1.000 ore), il ciclo vitale è sulle 5000 ore contro le 60000 dei monitor tradizionali.
QLED: Quantum Dot Led, cioè schermo a punti quantici. Si tratta di una tipologia di schermo basata sempre su dei nanocritalli che fungono da semiconduttori ideata alla fine degli anni ’90. La tecnologia a punti quantistici, oggi rappresenta l’ultima frontiera della ricerca e dello sviluppo, supporta schermi grandi e flessibili che durano di più degli OLED. Hanno un elevata qualità.
Risoluzione Monitor: indica il numero di pixel che ci sono sull’asse orizzontale e verticale.
HD Ready: 720 pixel sull’asse verticale (es: 1280x720); Full HD: 1080 pixel; Ultra HD o 4K: 2048 pixel (ha circa 4.000 pixel sull’asse orizzontale); 8K.
Compressione JPG: spezza l’immagine in quadrati di 8x8 pixel e per ognuno uniformo i pixel. Ottengo sequenze di pixel che si ripetono e posso procedere con la normale compressione (raggruppo le sequenze che si ripetono con un indicatore di numericità). Il fattore di compressione del JPG indica quanto semplificare i singoli gruppi di 8x8 pixel, più sono stati semplificati (es: un solo colore per quadrato) più semplice è comprimerli (es: ripeto lo stesso pixel per 64 volte). Non si può tornare indietro, è una compressione Lossy.
3D: noi percepiamo le tre dimensioni perché l’occhio destro vede qualcosa di leggermente diverso dal sinistro. Luce polarizzata in modo diverso tra i due occhiali o con prismi differenti e senza occhiali ma con bassa risoluzione. Il problema è la convergenza/messa a fuoco, infatti l’occhio umano per guardare una cosa fa due operazioni: mette a fuoco e converge gli occhi verso il punto. Nel 3D no, la messa a fuoco resta invariata durante il film essendo seduti a distanza fissa, ma la convergenza deve cambiare. Possiamo farlo, ma non siamo abituati e questo può provocare mal di testa.
RGB vs CMYK: Il sistema di colori RGB (Red, Green, Blue) viene utilizzato dai monitor per mostrare le immagini, dove la combinazione di questi colori in diverse quantità produce tutti gli altri colori. Tuttavia, questo sistema non è adatto per la stampa, dove vengono invece utilizzati i colori CMYK (Cyan, Magenta, Yellow, Black). La somma di questi quattro colori produce il nero, ma viene comunque utilizzata una cartuccia nera per risparmiare sui costi.
Poiché si stampa spesso in nero, ogni punto costerebbe molto, per risparmiare si utilizza quindi una cartuccia nera (la “K” di CMYK sta per “Key”, ovvero la matrice base a colore nero su cui si allineavano le altre). In genere in un testo le scritte sono il 20% e quindi usando RGB dovremmo usare l'80%, per questo si è aggiunto il nero.
Conversione RGB/CMYK: non tutti i colori sono convertibili, soprattutto quelli brillanti, occorre quindi scegliere una tabella di conversione, detta Profilo ICC, che associa ad ogni colore RGB un colore CMYK. Quindi tra schermo e stampa c'è una lieve differenza. Per poster o stampe professionali lavoro direttamene in CMYK. Esistono anche pantoni, raccoglitori, che indicano ogni colore come verrà stampato, ma costano.
Stampa termica: Si una carta chimica che reagisce al calore, consente stampe in bianco e nero (dove viene bruciata). Dopo un po' di tempo svanisce ed è usata per gli scontrini.
Stampa a getto d’inchiostro: l’inchiostro è un liquido colorato, che viene sparato sul foglio di carta con dei micro getti, Per velocizzare l'operazione ci sono più ugelli e quindi non stampa una singola riga ma una serie di righe di punti. Tuttavia se non si usano l'inchiostro esposto all'aria si secca e crea un tappo.
L’operazione avviene in due modi:
nella stampa inkJet termica, la testina riscalda un segmento, vaporizzando parte dell’inchiostro e creando così una bolla che lo espelle
nella stampa inkJet piezoelettrica, si usa un attuatore meccanico che modifica la forma del canale di uscita, spingendo fuori l’inchiostro. E' presente un cristallo piezoelettrico che vibra al passaggio della corrente e lascia passare o meno l'inchiostro.
Stampa laser: alla base di tutto c’è un rullo realizzato in un materiale capace di mantenere una carica elettrica localizzata. Ha il vantaggio che l'inchiostro non si secchi, le dimensioni si stanno riducendo e se si stampa molto il costo dell'inchiostro è ammortizzato.
Un primo elemento genera una carica elettrica e la distribuisce uniformemente sul rullo.
Un raggio laser neutralizza poi tale carica nelle aree in cui si vuole depositare l’inchiostro, per non avere molti laser e aumentare tantissimo il prezzo si usa uno specchio rotante che reindirizza il laser lungo la superficie del rullo.
Il rullo passa quindi sul distributore di toner, che è un pigmento a carica negativa e che resterà attaccato al rullo solo nelle aree pulite dal laser.
Continuando la rotazione il rullo preme l’inchiostro su un foglio, che procede verso altri rulli riscaldati che hanno lo scopo di fondere il toner sulla carta.
Poi il rullo viene pulito e si rimuovono le cariche elettriche.
Ozono: Come conseguenza del processo di stampa la stampante produce azoto e ossigeno ionizzati che formano ozono e ossidi di azoto. Per questo alcuni modelli è installato un filtro al carbonio che intercetta il flusso d'aria riducendo tali ossidi. Da diversi anni la maggior parte delle stampanti laser hanno modificato la componentistica eliminando il filo corona che era la causa di produzione di ozono.
Problemi respiratori: Secondo uno studio condotto in Queensland, Australia, alcune stampanti emettono un particolato che può causare disturbi respiratori. Secondo il professor Morawska dell'Università del Queensland una stampante emette tante polveri sottili quante una sigaretta.Uno studio giapponese del 2006 ha scoperto che le stampanti laser aumentano le concentrazioni di sostanze cancerogene come benzolo e stirene, o nocive come lo xilene e l'ozono, mentre le stampanti a getto d'inchiostro emettono 1-pentanolo (emesso anche dai gas di scarico delle auto).
Risoluzione Stampa: la risoluzione si misura in DPI = Dots Per Inch = Punti per pollice. 300 dpi = su una linea lunga un pollice ci stanno 300 pixel.
Per del testo: elevata (600-1200 dpi), l’occhio è sensibile; foto: 300 dpi sono sufficienti per una cartolina; manifesto pubblicitario: 300 dpi sono inutili, perché tanto lo guardo da lontano, bastano 72 dpi.
Codifica dati: In genere molte stampanti inseriscono un pattern nascosto, con l'inchiostro giallo e non si vede ad occhio nudo. Esso è una codifica binaria di informazioni, il foglio diviso in una griglie dove c'è un pallino giallo è uno senno è zero. La stampante stampa di nascosto il numero seriale stampante, indirizzo ip, data, ora, quindi si può risalire alla stampante. Lo si nota scannerizzando l'immagine stampata e evidenziando il contrasto con il giallo.
Tridimensionali-3D: Questo tipo di stampanti permette la riproduzione in tre dimensioni di oggetti aventi varia forma e dimensione. Si basano su una serie di testine, disposte secondo i tre assi dello spazio (x, y, z) dalle quali viene estruso il materiale (in genere una resina). La precisione e l'ordine di grandezza dei dettagli riprodotti rendono questo tipo di stampanti adatte alla modellistica industriale. Si prevede il suo impiego anche per la tele-dislocazione delle linee di produzione della componentistica industriale, medica e della oggettistica rispetto alle sedi di progettazione.
Il suono è un'onda che si propaga attraverso l'aria o altri mezzi (come l'acqua o i solidi) e viene percepito dall'orecchio umano o da altri dispositivi di registrazione e riproduzione dell'audio. Le onde sonore sono vibrazioni di frequenza che vengono prodotte da una sorgente sonora, come una voce o un strumento musicale, e si propagano attraverso il mezzo circostante.
Per registrare e riprodurre il suono, è necessario convertire il segnale audio analogico in un formato digitale utilizzando un processo chiamato campionamento. Il campionamento consiste nel leggere il valore del segnale audio a intervalli regolari e convertirlo in un valore digitale. La frequenza di campionamento, misurata in Hertz (Hz), determina quante volte al secondo viene letto il valore del segnale. Frequenze di campionamento comuni includono 8.000 Hz (utilizzato ad esempio nelle telefonate), 44.100 Hz (utilizzato nei CD audio), 48.000 Hz (utilizzato nei DVD) e 96.000 Hz (utilizzato nei Blu-ray).
Dopo il campionamento, il segnale audio viene compresso per ridurre la quantità di dati necessari per la sua memorizzazione e trasmissione. Il formato di compressione audio più comune è l'mp3, che utilizza tecniche di compressione lossy per eliminare le parti meno importanti del segnale audio. Questo permette di creare file audio più piccoli senza perdere troppa qualità audio. Tuttavia, esistono anche formati di compressione audio lossless, come il FLAC, che comprimono il segnale audio senza perdere alcuna informazione. Questi formati sono utilizzati soprattutto dagli audiofili e dai professionisti dell'audio, che richiedono una qualità audio impeccabile.
Il video è costituito da una serie di immagini bitmap in movimento, chiamate frame. La frequenza con cui i frame vengono catturati e mostrati viene misurata in fotogrammi al secondo (FPS). Per esempio, il formato PAL utilizzato in Europa richiede 25 FPS, mentre il formato NTSC utilizzato in America richiede 29,97 FPS. Nei videogiochi, i FPS possono variare da 60 a 240 a seconda della potenza del sistema.
GIF: Ogni fotogramma è salvato per intero, circa 50 fotogrammi, tuttavia questo fa aumentare lo spazio occupato.
Compressione: si usano quelli per le immagini ed audio, insieme ad uno nuovo: alcuni fotogrammi vengono rappresentati come immagini bitmap (keyframe)(in genere un fotogramma chiave a secondo), mentre altri contengono solo le variazioni rispetto al fotogramma precedente. Anche per programmi tv nel digitale e se c'è mal tempo per esempio possiamo perdere un fotogramma e quello successivo va ad aggiungerlo a quello base.
Per ottenere risultati migliori, la compressione avviene spesso in due passaggi:
si studia il video per capire le scene più animate (es: inseguimento in auto, cambia spesso l’inquadratura e quindi keyframe più vicini) e quelle più tranquille (es: l’eroe dorme, titoli di coda → keyframe più lontani). Anche se un paesaggio si sposta verso destra, l'immagine viene copiata e si aggiunge qualcosa a sinistra.
si effettua la compressione vera e propria
Tuttavia, la compressione video può anche comportare la perdita di qualità del video. Per questo motivo, spesso si utilizzano tecniche di compressione lossless come il formato di compressione video Apple ProRes o il formato di compressione video senza perdita di dati FFV1. Questi formati sono utilizzati soprattutto dai professionisti dell'audiovisivo, che richiedono una qualità video impeccabile.
Formati di compressione più noti: DivX (a pagamento), Xvid (gratis), MPEG2 (per digitale che era già vecchie all'epoca), MPEG4 (digitale HD).
Formato contenitore: il video è formato da tanti elementi che funzionano in contemporanea (audio inglese, audio klingon, audio italiano, video capitolo 1, video capitolo 2, video 3D, sottotitoli…), e ciascuno potrebbe vivere in un file a sé stante. Il formato contenitore è un formato di file che riunisce tutti questi file in un singolo archivio. Es: AVI (Microsoft), MPEG (1 e 2, per DVD), MP4 (open source), Real Media(Apple), MKV (open source, per alta qualità). Molto spesso i nomi dei contenitori sono uguali a quelli del formato di compressione più spesso usato. Le tracce che compongono l’archivio possono essere salvate in tanti formati, ogni contenitore però ne supporta solo alcuni (es: AVI può avere video MPEG2 o DivX ma non QuickTime).
Interlacciamento: non sempre si riusciva a trasmettere il segnale a 25 fps (es: tv analogica, DVD), e quindi si era costretti a spezzare l’immagine in due parti: una con le righe pari, l’altra le dispari. Le immagini erano poi disegnate in modo alterno, e l’occhio umano non se ne accorgeva.
Problema: questo non va più bene sui monitor moderni (LCD), si crea un pessimo effetto seghettato. Si può risolvere attivando a mano il de-interlacciamento che ricostruisce le linee mancanti