Spyware: virus che
racogle informazzioni sul computer e sugli utenti che lo utilizano.
Cookie: mesaggi di testo
che vengono memorizati sul disco del utente è provengono da un
server web .Per poter essere utilizati dallo stessi server in momenti
sucessivi . I cookie in particolare inviano al server informazioni
sulle ultime pagine aperte in internet allo scopo publicitario .
È possibile eliminare i cookie andando
su opzioni di internet del browser. Eliminando i cookie , si elimina
anche i dati e tutte le pasword registrate .
I programmi che diffendono dai spywere
sono i fireware ( non permete l'acceso ai dati memorizati sul
computer da parte di estranei senza il consenso) .
Pishing: riguarda il
caso in cui viene chiesto di inserire " nome utente e pasword "
in una pagina che non e quella reale ma una copia identica salvata
su un altro server .
Wrom : è un tipo di
virus informatico che si autoreplica occupando memoria è usando
parti del sistema operativo ; l'esequzioni delle altre applicazioni
risulta per tanto ralentata o bloccata .
Le fibre ottiche sono
filamenti di materiali vetrosi o polimerici,
realizzati in modo da poter condurre al loro interno la luce e
che trovano importanti applicazioni in telecomunicazioni, diagnostica
medica e illuminotecnica.
Ogni singola fibra ottica è composta da due strati concentrici di
materiale trasparente estremamente puro: un nucleo cilindrico
centrale, o core, ed un mantello o cladding attorno ad
esso. Il core presenta un diametro molto piccolo di circa 10 µm
per le monomodali e 50 µm per le è una singola fibra di vetro.Le fibre vengono
realizzate a partire da siliceultrapura, la quale
viene ottenuta dalla reazione fra il tetracloruro di silicio e
l'ossigeno. Nel silicio destinato alla produzione del core viene
aggiunto del germanio (sotto forma di tetracloruro di germanio)
in modo da aumentarne l'indice di rifrazione senza variarne
l'attenuazione.
multimodali,
mentre il cladding ha un diametro di circa 125 µm. I due strati
sono realizzati con materiali con indice di
rifrazione leggermente diverso, il cladding deve avere un indice
di rifrazione minore (tipicamente 1,475) rispetto al core (circa
1,5). Come ulteriore caratteristica il mantello (cladding) deve avere
uno spessore maggiore della lunghezza di smorzamento dell'onda
evanescente, caratteristica della luce trasmessa in modo da catturare
la luce che non viene riflessa nel core.La fibra ottica funziona come
una specie di specchio tubolare. La luce che entra nel core ad un
certo angolo (angolo limite) si propaga mediante una serie di
riflessioni alla superficie di separazione fra i due materiali del
core e del cladding.All'esterno della fibra vi è una guaina
protettiva polimerica detta jacket che serve a dare
resistenza agli stress fisici e alla corrosione ed evitare il
contatto fra la fibra e l'ambiente esterno.Diversi tipi di fibre si
distinguono per diametro del core, indici di rifrazione,
caratteristiche del materiale, profilo di transizione dell'indice di
rifrazione e drogaggio (aggiunta di piccole quantità di
altri materiali per modificare le caratteristiche ottiche).
La fibra ottica è una
singola fibra di vetro.Le fibre vengono realizzate a
partire da siliceultrapura, la quale viene ottenuta dalla
reazione fra il tetracloruro di silicio e l'ossigeno. Nel
silicio destinato alla produzione del core viene aggiunto del
germanio (sotto forma di tetracloruro di germanio) in modo da
aumentarne l'indice di rifrazione senza variarne l'attenuazione.
In telecomunicazioni ed elettronica con il
termine modem si indica un dispositivo
di ricetrasmissione che ha funzionalità logiche
di modulazione/demodulazione (analogica o numerica)
in trasmissioni analogiche e digitali.Nell'accezione
più comune il modem è un dispositivo elettronico che rende
possibile la comunicazione di più sistemi informatici (ad
esempio dei computer) utilizzando un canale di
comunicazione composto tipicamente da un doppino
telefonico.Questo dispositivo permette la MOdulazione e
la DEModulazione dei segnali contenenti informazione;
dal nome di queste due funzioni principali il dispositivo prende
appunto il nome di MODEM. In altre parole, sequenze di bit
vengono ricodificate come segnali elettrici. Il modem è anche
una componente fondamentale del Fax. In pratica il modem
associato ad un terminale di rete ovvero
un PC (DTE Data Terminal Equipment), attua tutte quelle
procedure di conversione e codifica del segnale elettrico
informativo da analogico a digitale (demodulazione
numerica) in entrata al PC (che è per l'appunto un sistema digitale)
e da digitale ad analogico (modulazione numerica) in uscita dal
PC lungo il canale di trasmissione, ovvero il doppino telefonico,
verso altre destinazioni della rete. Può essere visto quindi come un
opportuno dispositivo elaborativo di rice-trasmissione nell'ambito
delle comunicazioni o trasmissioni digitali o numeriche che
fa da interfaccia tra un sistema digitale (il PC) e una linea
trasmissiva analogica quale ad esempio il doppino
telefonico.
Il termine file indica un
contenitore di informazioni/dati in formato digitale,
tipicamente presenti su un supporto digitale di memorizzazione.
Le informazioni scritte/codificate al suo interno sono leggibili
solo attraverso software.
Poiché accedere ad un archivio informatico da una memoria di
massa è una operazione piuttosto lenta, necessita di una conoscenza
dettagliata dell'hardware del computer e crea un
rischio di conflitto di risorse fra programmi in esecuzione, queste
operazioni sono eseguite dal sistema operativo per conto dei
programmi che le richiedono. Le operazioni più comuni,
universalmente presenti in tutti i sistemi operativi, sono:
Apertura: il programma segnala al sistema operativo che
ha necessità di accedere a un certo file. Il sistema operativo
controlla che il file esista e che non sia già usato o bloccato, da
esso o da un altro programma; crea alcune strutture dati per gestire
le operazioni successive e riserva una certa quantità di memoria
RAM, detta buffer, per memorizzare i dati in transito da e per
il file; restituisce al programma un simbolo (o un handle oppure
un indirizzo di memoria fisica) a cui il programma farà riferimento
nelle successive operazioni sul file; gli altri programmi possono
accedere allo stesso file solo in modo limitato (solo lettura) o non
possono accedervi affatto.
Lettura: il programma richiede dei dati dal file. Il
sistema operativo li legge, li memorizza nel buffer di cui
comunica l'ubicazione al programma richiedente.
Scrittura: Il programma vuole scrivere dei dati in un
file. Per prima cosa memorizza i dati in questione in un buffer, di
cui poi comunica l'ubicazione al sistema operativo.
Chiusura: il programma comunica che non ha più bisogno
del file. Tutte le strutture dati e il buffer allocato vengono
rilasciate; il sistema operativo elimina il file dalla lista di
quelli in uso; gli altri programmi hanno ora libero accesso al file.
Di per sé il sistema operativo è in grado di compiere le
seguenti operazioni:
Riallocazione: il sistema operativo (file system) è in
grado di spostare o muovere il file da una directory all'altra
tramite ad esempio copia e incolla o da terminale a riga
di comando.
Rinominazione: il sistema operativo è in grado di rinominare
il file assegnandogli un nome diverso per via grafica o da riga di
comando.
Eliminazione: il sistema operativo è in grado di
rimuovere, se richiesto dall'utente, il file dalla memoria di massa
che lo contiene, andando però solo ad eliminare il collegamento
logico-fisico del file in memoria, il cui spazio di memoria
risulterà dunque non vuoto, ma libero nel senso di
sovrascrivibile.
Formattazione e defragmentazione La defragmentazione :è un'operazione di
ottimizzazione dell'archiviazione dei dati nellamemoria di
massa di un computer che consiste nel ridurre
la frammentazione esterna dei file presenti
sulla memoria stessa (es: un disco fisso) ristrutturandone
l'allocazione facendo in modo che ciascun filerisulti
memorizzato in una zona contigua dal punto di vista fisico; questo
diminuisce drasticamente i tempi di accesso e lettura ai file. La
deframmentazione è un'operazione che può essere svolta in modo
automatico dal file system durante il suo regolare
funzionamento oppure eseguita tramite esplicita richiesta dell'utente
tramite l'esecuzione di un programma.
La formattazione
: è l'operazione tramite la quale si prepara per l'uso un supporto
di memorizzazione di massa, come ad esempio un disco
fisso o una suapartizione, per renderlo idoneo all'archiviazione
di dati, impostando la struttura del file system che vi
verrà creato sopra.
L'operazione consiste nel dividere la
capacità del disco in una serie di blocchi di uguali dimensioni e
fornire una struttura logica in cui verranno scritte le informazioni
che permetteranno l'accesso ai dati desiderati.
Uno dei casi in cui si ricorre alla riformattazione di un disco si
verifica quando è necessario reinstallare il sistema
operativo di un computer a seguito di malfunzionamenti causati
damalware o da problemi software che hanno danneggiato il
sistema operativo. In questo caso, dopo aver effettuato una copia
di backup dei dati si procede alla formattazione per
disporre di una struttura di memorizzazione sicuramente integra sulla
quale installare il sistema operativo.
Il dispiegamento delle potenzialità di Internet e la sua
progressiva diffusione popolare sono però frutto dello sviluppo del
WWW, il World Wide Web, un sistema per la condivisione di
informazioni in ipertesto del 1990 sviluppato
da Tim Berners-Lee presso il CERN (Centro Europeo
per la ricerca nucleare). L'opera di Berners-Lee può essere vista
come il risultato di una serie di idee e progetti anche con
sfondo utopico, a partire dagli anni 1930, iniziando con
il Memex di Vannevar Bush; nel 1968 con
l'OnLine System di Douglas Engelbart, che includeva
un'interfaccia grafica da usare con un nuovo strumento, il mouse. Ted
Nelson, nel suo testo Computer Lib/Dream Machine, manifesto
politico del 1965, aveva immaginato una forma pura e totalmente
aperta di ipertesto e un sistema utopico sulla base di queste
idee, XANADU. Questi sogni furono comunque trasformati in realtà
prima da Bill Atkinson con il sistema HyperCard di Apple
Computer e definitivamente da T.B. Lee nel 1980 con il
suo Enquire.
Tim Berners-Lee e Robert
Cailliau nel 1990 misero a punto il protocollo HTTP e
una prima specifica del linguaggio HTML, sulla base dei quali
sono stati realizzati un primo programma browser/editor ipertestuale
per il WWW, utilizzato all'interno del CERN nel 1991.
Nel1993 uscì la release Mosaic, che combinava una capacità
grafica avanzata e diverse tecnologie d'interfaccia multimediali. Il
padre di Mosaic è, a buon diritto, Marc Andreessen. Da loro
nacque la Mosaic Communications, che poi prese il nome
di Netscape Communication e creò il primo browser
commerciale, Netscape Navigator, nel 1994, che
successivamente è stato reso disponibile online. Microsoft scoprì
Internet nel 1995 e fece uscire il browser Internet
Explorer installabile[3] sul proprio sistema
operativo Windows 95. Sempre nello stesso anno, la Sun
Microsystem progettò il linguaggio di programmazione Java,
che permette di eseguire programmi scaricati da Internet in sicurezza
grazie alla tecnologia degli Applet. Nel 1998, ormai per
pura concorrenza con Microsoft, Netscape rilasciò in rete il codice
sorgente di Navigator.
Internet è nato nella mente e nelle utopie di tante persone nei
primi anni sessanta, ma per la massa, per le imprese e per il
mondo nel complesso, Internet nasce effettivamente nel1995. È
dall'ampia diffusione delle tecnologie del World Wide Web che si
comincia a parlare sempre di più del commercio
elettronico anche per gli utenti finali e non solo per le
transazioni fra grandi imprese.
Le origini di Internet si
trovano in ARPANET, una rete di computer costituita
nel settembre del 1969 negli USA da ARPA (Advanced
Research Projects Agency). ARPA fu creata nel 1958 dal Dipartimento
della Difesa degli Stati Uniti per dare modo di
ampliare e sviluppare la ricerca, soprattutto all'indomani del
sorpasso tecnologico dell'Unione Sovietica, che lanciò il primo
satellite (Sputnik) nel 1957, conquistando i cieli americani:
quando la NASA le subentrò nella gestione dei programmi
spaziali l'ARPA assunse il controllo di tutte le ricerche
scientifiche a lungo termine in campo militare.
Verso il 1965 l'ARPA iniziò ad avere dei seri problemi
di gestione: aveva diversi computer sparsi in varie sedi (tutti molto
costosi) che non potevano parlarsi: non avrebbero potuto farlo
nemmeno se fossero stati nella stessa stanza. Scambiare file fra loro
era quasi impossibile, per via dei formati di archiviazione
completamente diversi (e proprietari) che ognuno di essi usava,
quindi era necessario molto tempo e molto lavoro per passare dati fra
i vari computer, per non parlare dello sforzo necessario per portare
e adattare i programmi da un calcolatore all'altro. Per questo Bob
Taylor, allora direttore della divisione informatica dell'ARPA,
affrontò il problema in modo radicale. Nel 1966 parlò
con Charlie Hertzfeld, l'allora direttore dell'ARPA, e ottenne
uno stanziamento di un milione di dollari per il progetto ARPANET.
ARPANET venne pianificato e realizzato dall'IPTO (Information
Processing Techniques Office). Questo dipartimento fu gestito in
principio da Joseph Licklider, psicologo prima, scienziato
informatico poi, al MIT (Massachusetts Institute of
Technology) di Boston. ARPANET sarebbe servita a
condividere online il tempo di utilizzazione del computer
tra i diversi centri di elaborazione dati e i gruppi di ricerca per
l'agenzia. L'IPTO si basò su una tecnologia rivoluzionaria:
la commutazione di pacchetto (packet switching), sviluppata
daPaul Baran, ingegnere polacco naturalizzato statunitense, alla RAND
corporation e da Donald Davies al British
National Physical Laboratory. Si puntava ad un network invulnerabile
ad un attacco nucleare.
Così, nell'ottobre 1969 Leonard Kleinrock, titolare del
laboratorio dell'Università della California di Los Angeles, fu
incaricato di creare il primo collegamento telefonico da computer a
computer fra la UCLA e lo Stanford Research Institute, che furono
così i primi due nodi di Internet: la prima applicazione che
abbia mai funzionato su internet fu una sessioneTelnet. Nel dicembre
1969 si aggiunsero alla connessione le università di Santa
Barbara e dello Utah, rispettivamente il terzo e quarto
nodo. Il quinto nodo fu la BBN (Bolt, Beranek e Newman, una società
di ingegneristica acustica di Boston convertita
all'informatica applicata), nei primi mesi del 1970, che
aveva implementato i primissimi protocolli di ARPANET.
La storia di Internet è direttamente collegata allo
sviluppo delle reti di telecomunicazione. L'idea di una rete
informatica che permettesse agli utenti di
differenti computer di comunicare tra loro si sviluppò in
molte tappe successive. La somma di tutti questi sviluppi ha condotto
alla “rete delle reti”, che noi conosciamo oggi come Internet.
È il frutto sia dello sviluppo tecnologico, sia
dell'interconnessione delle infrastrutture di rete esistenti, sia dei
sistemi di telecomunicazione.
I primi progetti di questo disegno apparvero alla fine degli anni
cinquanta. Dagli anni ottanta le tecnologie che oggi
costituiscono la base di Internet cominciarono a diffondersi in tutto
il globo (Italia compresa). Nel corso degli anni novanta la
popolarità della rete è divenuta massiva in seguito al lancio
del World Wide Web.
L'infrastruttura di Internet si è espansa in tutto il mondo per
creare la rete mondiale globale di computer oggi conosciuta. Dopo
aver unito tra loro i paesi occidentali, si è estesa aiPaesi in
via di sviluppo. Oggi grazie a Internet si può
avere accesso all'informazione da qualsiasi punto del
pianeta, ma non per questo il Terzo mondo ha ridotto
il divario digitaleche lo separa dal mondo sviluppato. Internet
ha contribuito a modificare l'economia mondiale, ma al prezzo di
“incidenti di percorso” di elevata gravità, come la bolla
speculativadelle dot-com della fine degli anni novanta.
Al giorno d'oggi : Internet è una rete mondiale
di reti di computer ad accesso pubblico, attualmente
rappresentante il principale mezzo di comunicazione di massa,
che offre all'utente una vasta serie di contenuti
potenzialmente informativi e servizi. Si tratta di
un'interconnessione globale tra reti informatiche di natura ed
estensione diversa, resa possibile da una suite di protocolli
di rete comune chiamata "TCP/IP" dal nome dei due
protocolli principali, il TCPe l'IP, che costituiscono la
"lingua" comune con cui i computer connessi ad
Internet (gli host) sono interconnessi e comunicano tra loro
indipendentemente dalla loro architetturahardware e software,
garantendo l'interoperabilità tra sistemi e sottoreti fisiche
diverse.
Un sistema operativo (abbreviato in SO, in lingua
inglese OS, "operating system"), in informatica,
è un insieme di componenti software, che garantisce
l'operatività di base di un calcolatore, coordinando e gestendo
le risorse hardware diprocessamento e memorizzazione,
le periferiche, le risorse/attività software (processi)
e facendo da interfaccia con l'utente, senza il quale
quindi non sarebbe possibile l'utilizzo del computer stesso e di
altri software più specifici, come applicazionio librerie
software.
È dunque un componente essenziale del sistema di elaborazione che
funge da "base" al quale si appoggiano gli altri software,
che dunque dovranno essere progettati e realizzati in
modo da essere riconosciuti e supportati da quel particolare sistema
operativo. Assieme al processore, con cui è strettamente
legato, costituisce la cosiddetta piattaforma del sistema
di elaborazione.
Un generico sistema operativo moderno si compone di alcune parti
standard, più o meno ben definite.
Il kernel: è un gruppo di funzioni fondamentali, strettamente interconnesse fra
loro e con l'hardware, che vengono eseguite con il privilegio
massimo disponibile sulla macchina ossia in modalità kernel;
il kernel fornisce le funzionalità di base per tutte le altre
componenti del sistema operativo, che assolvono le loro funzioni
servendosi dei servizi che esso offre. A seconda del tipo di sistema
operativo il kernel può inglobare altre parti
(kernel classico, monolitico o modulare) o
fornire solo funzioni base delegando più funzioni possibile a
oggetti/gestori esterni (microkernel).
Un sistema di gestione di memoria : che alloca la memoria primaria richiesta dai programmi e dal sistema
operativo stesso, salva sulla memoria di massa le zone di memoria
temporaneamente non usate dai programmi (memoria virtuale) e
garantisce che le pagine swappate vengano riportate in
memoria se richieste.
Uno scheduler: che scandisce il tempo di esecuzione dei vari processi e assicura
che ciascuno di essi venga eseguito per il tempo richiesto.
Normalmente lo scheduler gestisce anche lo statodei processi e
può sospenderne l'esecuzione nel caso questi siano in attesa senza
fare nulla (esempio classico è la richiesta di dati da disco). Nei
sistemi operativi realtime lo scheduler si occupa anche di
garantire una timeline, cioè un tempo massimo di completamento
per ciascun task in esecuzione, ed è notevolmente più complesso.
Il gestore di file system: si occupa di esaudire le richieste di accesso alle memorie di massa.
Viene utilizzato ogni volta che si accede a un file sul disco, e
oltre a fornire i dati richiesti tiene traccia dei file aperti, dei
permessi di accesso ai file. Inoltre si occupa anche e soprattutto
dell'astrazione logica dei dati memorizzati sul computer (directory,
ecc).
Uno spooler che riceve dai programmi i dati da stampare e li stampa in
successione, permettendo ai programmi di proseguire senza dover
attendere la fine del processo di stampa.
Una interfaccia utente (Shell) :che permette agli utenti di interagire con la macchina.
A seconda dei casi, un particolare sistema operativo può avere tutti
questi componenti o solo alcuni. Una ulteriore differenza fra i
sistemi operativi è data dal tipo di comunicazione fra le varie
componenti: i sistemi operativi classici sono basati su chiamate
dirette di funzioni, mentre molti sistemi operativi moderni,
soprattutto quelli che adottano microkernel, si basano sul message
passing, sullo scambio di messaggi fra le loro varie parti e fra il
sistema operativo e i programmi che fa girare.
Storia dei sistemi operativi Prima dei sistemi operativi:
In un periodo delimitabile tra il 1945 e il 1955 gli
elaboratori elettronici erano ammassi di valvole termoioniche,
occupavano intere stanze, erano lentissimi e così costosi che
potevano permetterseli soltanto grossi centri di calcolo o Università
o sovrani particolarmente facoltosi. Inoltre questi calcolatori erano
molto inaffidabili, in quanto le valvole che li componevano si
rompevano spesso. In questo periodo non esisteva ancora il concetto
di Sistema Operativo; infatti il programma da eseguire veniva
inserito ad ogni esecuzione in codice binario attraverso dei
primitivi lettori di schede perforate e dopo alcune ore il risultato
veniva inviato ad una stampante.
I primi sistemi operativi:
Tra il 1955 e il 1965, grazie alla rivoluzionaria
invenzione del transistor gli elaboratori
(chiamati mainframe) divennero abbastanza affidabili da poter
essere costruiti e venduti in serie, anche se erano comunque macchine
grosse e costosissime tanto che gli unici acquirenti possibili erano
ancora una volta i Centri di Calcolo, le Università e le banche.
Per eseguire dei programmi (o come venivano chiamati, job),
un programmatore doveva scrivere il proprio programma su carta,
trasferirlo su schede, caricarlo nel computer, attendere il termine
dell'esecuzione e la stampa del risultato. Tale operazione era molto
dispendiosa in termini di tempo e non permetteva di sfruttare la
macchina durante le lunghe fasi di caricamento di dati e programmi.
Non essendo stata ancora introdotta la tecnologia di accesso diretto
alla memoria (DMA) durante le fasi di input/output il
processore era totalmente utilizzato per il controllo di queste
operazioni. È per questo che si adottò la soluzione del
sistema batch (a lotti): l'idea di base era quella di
dividere i tre lavori, ovvero il caricamento dei dati, il calcolo e
la stampa su macchine distinte. Il calcolo veniva affidato ad un
calcolatore centrale costoso come l'IBM 7094 mentre gli
elaboratori satelliti erano macchine più economiche come gli IBM
1401.
Il sistema operativo di questi mainframe doveva erogare
pochi semplici servizi: gestione dell'input/output, interpretazione
dei comandi contenuti nelle schede controllo e controllo
dell'esecuzione di programmi, sia quelli lanciati dall'utente, sia le
utilità di sistema. I sistemi operativi tipici per questi
elaboratori, per lo più programmati in Fortran e
in Assemblyerano il Fortran Monitor System (FMS) e
l'IBSYS.
Dai primi anni sessanta cominciò a farsi strada il
concetto di dispositivo virtuale e astrazione. Prima
di ciò un programmatore che avesse voluto comandare ad esempio una
stampante, doveva conoscere, nei minimi dettagli, il funzionamento a
basso livello della periferica, mentre a partire dall'introduzione
del concetto di periferica virtuale il sistema operativo avrebbe
fatto da intermediario tra utente e periferica. Nello stesso periodo
i sistemi operativi iniziarono a supportare il DMA e
lo SPOOL.
Il DMA (Direct Memory Access) è il sistema che permette
di trasferire interi blocchi di dati da memoria secondaria a memoria
centrale in modo completamente indipendente dal processore, il quale
può, nel frattempo, eseguire altre operazioni.
Lo SPOOL (Simultaneous Peripheral Operations On Line) è un
sistema che permette di gestire in maniera efficiente le code di job
di stampa.
Infine, ma non meno importante si assistette all'introduzione
delle "politiche di ordinamento dei job". Essi
venivano caricati ed eseguiti in maniera sequenziale, ma l'ordine di
esecuzione dei programmi era gestito da opportune politiche
implementate nel sistema operativo. Siamo ancora lontani da ciò che
sarà poi il time-sharing supportato da tutti i sistemi
operativi moderni, tuttavia è il germe che darà il via alla
implementazione della multiprogrammazione negli anni
successivi.
In informatica l'unità
periferica è una qualsiasi tipologia di
dispositivo hardware del computer che
siinterfaccia in input e/o output con
l'unità di elaborazione che sovrintende tutte le funzionalità
del computer (nei moderni computer digitali general
purpose, tale unità di elaborazione è la CPU).
Periferica interna e periferica esterna
La periferica interna è una periferica che risiede
all'interno del case del computer assieme ad altre
componenti del computer ed è costituita tipicamente da una scheda
elettronicainterconnessa con la scheda madre (scheda
video, scheda audio, scheda video, scheda di
rete, scheda di memoria) e da questa con la CPU attraverso
il chipset. La periferica esterna è una periferica che non risiede
all'interno del case del computer assieme ad altre componenti del
computer (es. il mouse).
Queste due tipologie di periferiche non sono mutuamente esclusive.
Esistono infatti tipologie di periferiche che vengono realizzate sia
come periferiche interne che come periferiche esterne. (es. l'hard
disk interno/esterno, scheda audio, video e di rete esterna).
Periferica di input, periferica di output e periferica di
input/output
La periferica di input (anche chiamata periferica
di ingresso) è una periferica che immette dati nella memoria
centrale del computer lavorando in maniera
unidirezionale. (es. tastierae mouse). La periferica di output (anche chiamata periferica
di uscita) è una periferica che riceve dati dalla memoria centrale
del computer lavorando in maniera unidirezionale
(es. monitor estampante). La periferica di input/output (anche chiamata periferica
di ingresso/uscita) è una periferica che immette dati nella memoria
centrale del computer e riceve da essa dati lavorando in maniera
bidirezionale. (es. modem, memoria di massa, scheda
video, scheda audio, scheda di rete).
Case : il casse è costituito da un telaio,
realizato in acciaio e alluminio , strutturato in modo da poter
contenere la scheda madre , l'alimentatore e un numero variabile di
periferiche ; a sua volta il telaio è coperto da panelli in metallo
o plastica , con funzioni estetiche oltre che di copertura.
Possiamo
dinstinguere tre tipi fondamentali di case: quello standart ,
il cui monitor e esterno , quello integrato che comprende
anche il monitor e quello portatile.
Alimentatore: un alimentatore è un convertitore
ac-dc, ovvero un apparato elettrico, semplice o composto, che serve a
raddrizzare in uscita la tensione elettrica in ingresso in
modo da fornire energia elettrica adattandola all'uso di
altre apparecchiature elettriche , modificando eventualmente anche i
livelli di tensione e corrente, e dunque potenza, in uscita.
Gli alimentatori differiscono ampiamente in funzione della potenza
gestita, così
Anche per le caratteristiche di qualità della corrente
elettrica fornita all'uscita. Un alimentatore con pari valori di
tensione e potenza è più complesso e costoso quanto più la
tensione fornita è precisa e stabile, e quanto maggiore è la
sua affidabilità. Esistono anche alimentatori da laboratorio,
in cui la tensione di uscita è regolabile a piacere
dall'utilizzatore in base alla necessità. Questi alimentatori hanno
anche una limitazione della corrente massima fornita, in alcuni casi
regolabile, utile per evitare problemi in caso di cortocircuito e
per speciali circuiti con alimentazione in corrente costante.
La funzione dell' alimentatore è quella di prelevare l' energia
elettrica dalla rete di distribuzione in corrente alternata ( o da
un' altra fonte, ad esempio accumulatori) e convertirla nelle
tensioni necessarie al funzionamento dei circuiti elettronici
contenuti nel pc. Si tratta di basse tensioni, con forti correnti,
che devono essere molto precise.
La scheda madre: la scheda madre o scheda di
sistemi anche conosciuta come matherboard o mainboard è
una parte fondamentale di un moderno personal computer: sotto
forma di scheda eletronica principale raccoglie in sé
tutta la circuiteria elettronica e i collegamenti
di interfaccia tra i vari componenti interni principali del
pc (cpu,memoria e le altre schede elettroniche montate o
alloggiate sopra) comprendendo quindi anche i bus di
espansione e le interfacce verso leperiferiche esterne. È
responsabile dunque della trasmissione e temporizzazione
corretta di molte centinaia di segnali diversi, tutti ad
alta frequenza e sensibili ai disturbi, tra processore e
periferiche interne e viceversa. La sua buona realizzazione è quindi
un fattore chiave per le prestazioni e
l'affidabilità dell'intero computer.
È composta da un circuito stampato estremamente complesso,
ricavato da un sandwich di strati di vetronite e rame:
generalmente una scheda madre può avere da quattro a sei strati di
rame. In questi sono ricavate le piste che collegano i componenti,
che devono essere calcolate con molta cura: alle frequenze
normalmente adoperate dalle cpu e dalle memorie ram in
uso oggi, infatti, la trasmissione dei segnali elettrici non si può
più considerare istantanea ma deve tenere conto
dell'impedenza propria della pista di rame e delle impedenze di
ingresso e di uscita dei componenti connessi, che influenzano
il tempo di volo dei segnali da un punto all'altro del
circuito.
Su questo circuito stampato vengono saldati una serie di circuiti
integrati, di zoccoli e di connettori; gli integrati più importanti
sono il chipset che svolge la gran parte del lavoro di
interfaccia fra i componenti principali e i bus di
espansione, la rom (o prom, eeprom o
simile), il socket per il processore e
i connettori necessari per il montaggio degli altri
componenti del pc e delle schede di espansione. La struttura attuale
delle schede di sistema dei computer è il frutto di un'evoluzione
tecnologica che ha portato a definire una architettura di sistema
valida, in linea di massima, per tutti i sistemi di classe personal
computer o di potenza paragonabile.
CPU : L'unità di elaborazione centrale (abbreviazione comunemente
utilizzata: "CPU")o processore centrale è una
tipologia di processore digitale general purpose la
quale si contraddistingue per sovrintendere tutte le funzionalità
del computer digitale basato sull'architettura di Von
Neumann o sull'architettura Harvard.
È detta unità centrale di elaborazione perché
coordina in maniera centralizzata tutte le altre unità di
elaborazione presenti sulle moderne architetture hardware dei
computer ovvero i chip di elaborazione delle
varie periferiche interne o schede elettroniche(scheda
audio, scheda video, scheda di rete)
(es. coprocessore e processore di segnale digitale).
Il compito della CPU è quello di eseguire le istruzioni di
un programma presente in memoria centrale o
primaria (RAM) dopo averlo prelevato dalla memoria secondaria o
di massa. Durante l'esecuzione del programma la CPU legge o
scrive dati in memoria centrale. Il risultato
dell'esecuzione dipende dal dato su cui si opera e dallo stato
interno in cui la CPU stessa si trova, e può mantenere la
traccia delle operazioni passate.
Attualmente la CPU è tipicamente implementata
come microprocessore monolitico, montata sulla scheda
madre e collegata alle altre periferiche interne
(schede elettroniche) attraverso il chipset, presente anch'esso
sulla scheda madre, e relative interfacce di collegamento.
CPU (central processing unit)
"Dissipatore + ventola"
servono per distribuire il calore
del processore è raffreddarlo.
GPU (grafic processing unit) : in informatica ed elettronica una scheda
video è un componente hardware del computer, sotto
forma di scheda elettronica, che ha lo scopo di elaborazione del
segnale video ovvero generare, a partire da un segnale
elettrico in input dal processore, un determinato
segnale elettrico in output che possa essere poi inviato in
input a video (display o monitor) per essere trasdotto da
quest'ultimo in segnale ottico visivo e mostrato all'utente. A
seconda del tipo di computer questo dispositivo può essere più o
meno potente: i primi modelli di scheda video potevano visualizzare
solo testo; successivamente si sono diffuse anche schede video in
grado di mostrare output grafici (immagini non testuali) e,
recentemente, anche modelli tridimensionali texturizzati in
movimento e in tempo reale. Questi ultimi tipi di scheda provvedono
anche ad elaborare e modificare l'immagine nella
propria memoria interna, mentre le schede 2D possono
mostrare immagini 3D solo con l'aiuto della CPU che deve
eseguire da sola tutti i calcoli necessari.
Una tipica scheda video contiene un integrato grafico (o più di
uno) che gestisce una certa quantità di RAM dedicata a memorizzare i
dati grafici da visualizzare e che risiede fisicamente sulla scheda
stessa. Le schede video costruite per i PC IBM e
compatibili contengono anche una ROM con un driver molto
semplice (chiamato firmware che è aggiornabile nelle
moderne schede video), usato dal BIOS per il bootstrap.
Il funzionamento di una scheda video è, in linea di massima,
molto semplice: ogni locazione di RAM grafica contiene il colore di
un pixel dello schermo, o di un carattere se la
scheda sta visualizzando solo testo; il chip grafico si limita a
leggere in sequenza le locazioni necessarie (se sta lavorando in modo
testo, ogni locazione viene elaborata da un generatore di
caratteri) e a pilotare un convertitore digitale-analogico,
detto RAMDAC, che genera il segnale video che sarà visualizzato
dal monitor. Dalla quantità di RAM grafica equipaggiata nella scheda
e dalla velocità (frequenza) massima del suo RAMDAC dipendono la
risoluzione massima raggiungibile e il numero di colori
contemporaneamente visibili.
RAM : e la memoria ad accesso casuale (abbreviazione diffusa
nel linguaggio comune: "RAM")è una tipologia
di memoria informatica caratterizzata dal permettere l'accesso
diretto a qualunque indirizzo di memoria con lo
stesso tempo di accesso.
La memoria ad accesso casuale si contrappone alla memoria ad
accesso sequenziale e alla memoria ad accesso
diretto rispetto alle quali presenta tempi di accesso
sensibilmente inferiori motivo per cui è utilizzata come memoria
primaria.
La tipologia di memoria ad accesso casuale più comune attualmente
è a stato solido, a lettura-scrittura e volatile,
ma rientrano nella tipologia di memoria ad accesso casuale la maggior
parte delle tipologie di ROM (inteso nell'accezione più
comune e non come memoria a sola lettura), la NOR Flash (una
tipologia di memoria flash), oltre a varie tipologie di memorie
informatiche utilizzate ai primordi dell'informatica e oggi non
più utilizzate come ad esempio la memoria a nucleo magnetico.
Esclusivamente l'acronimo RAM (non il termine "memoria ad
accesso casuale") ha anche una seconda accezione più ristretta
ma attualmente più diffusa secondo cui la RAM è una
memoria ad accesso casuale della tipologia più comune cioè a stato
solido, a lettura-scrittura e volatile.
Scheda audio : in elettronica una scheda audio è
una scheda di espansione di un computer che si
occupa di elaborare un flusso audio
digitale ininput (da una memoria o trasferito
attraverso una rete) in un segnale analogico o digitale da
inviare in output ad una periferica audio (ad es.
un set di altoparlanti o cuffie audio) per essere
riprodotto/trasdotto in un segnale sonoro a favore
dell'utente. La maggior parte delle schede audio attuali è anche in
grado di operare in maniera inversa ovvero ricevere segnali
in input (da microfoni o strumenti musicali)
e inviarli all'unità di elaborazione della scheda per l'elaborazione
e successiva memorizzazione in output su vari possibili supporti. Una
scheda audio tipica include un chip sonoro solitamente
equipaggiato con un convertitore digitale-analogico che
converte onde sonore registrate o generate in digitale in
un segnale analogico. Questo segnale è indirizzato a
un connettore al quale può essere connesso
un amplificatore o un'apparecchiatura simile.Le
architetture più avanzate solitamente includono più di
un chip sonoro, e dividono fra sintetizzatore di
suoni (solitamente usato per generare suoni in tempo reale con poco
uso della CPU) e riproduzione digitale di suoni.Le schede audio
più avanzate (come ad esempio le X-Fi di Creative Labs)
possiedono anche un processore (CPU) proprio per migliorare
l'elaborazione del suono.Nei PC di fascia medio-bassa la
scheda audio è di solito integrata in un chip della scheda
madre, per contenere i costi e i consumi. Queste schede audio, pur
non avendo funzionalità di elaborazione avanzate, sono in grado di
riprodurre suoni ad alta qualità e dispongono di uscite per sistemi
di altoparlanti surround fino a 9.1.
Il disco rigido : il disco rigido o disco
fisso, anche chiamato hard disk drive (abbreviazioni comuni:
"hard disk", "HDD") o fixed disk drive
(abbreviazioni comuni: "fixed disk", "FDD"), è
un dispositivo di memoria di massa di tipo magnetico che
utilizza uno o più dischi magnetizzati per l'archiviazione
dei dati (file, programmi e sistemi
operativi).Il disco rigido è
una periferica di input-output del computer ed
è uno dei tipi di dispositivi di memoria di massa attualmente più
utilizzati essendo presente nella maggior parte dei computer ed anche
in altri dispositivi elettronici, come ad esempio ilPVR.Il disco
rigido ha da poco tempo un serio concorrente, l'unità a stato
solido, destinata probabilmente in futuro a soppiantarlo.Il disco
rigido è costituito fondamentalmente da uno o più piatti in
rapida rotazione, realizzati in alluminio o vetro,
rivestiti di materiale ferromagnetico e da due testine per
ogni disco (una per lato), le quali, durante il funzionamento
"volano" alla distanza di poche decine di nanometri dalla
superficie del disco leggendo o scrivendo i dati. La testina è
tenuta sollevata dall'aria mossa dalla rotazione stessa dei dischi la
cui frequenza o velocità di rotazione può superare i 15.000 giri al
minuto.Tipicamente per la memorizzazione di dati digitali il disco
rigido necessita dell'operazione preliminare di formattazione logica
con scelta del particolare sistema logico di archiviazione dei dati
da utilizzare noto come file system, tramite il quale il sistema
operativo è in grado di scrivere e recuperare i dati.
Lettore CD-DVD: (lettore di compact disc,)è una tipologia
di drive la quale si contraddistingue per essere destinata
alla lettura dei dati memorizzati su compact disc. Il
lettore CD legge i dischi tramite un diodo laser. I dati sono
scritti sul disco come una serie di microscopiche incisioni (pits),
separate da spazi (lands). La superficie riflettente del disco,
composta di alluminio, viene illuminata dal raggio laser per leggerne
i dati. A causa della profondità dei pit, approssimativamente
tra un quarto ed un sesto della lunghezza d'onda del laser
utilizzato, la fase del raggio riflesso è traslata
rispetto a quella del raggio emesso inizialmente. La loro
sovrapposizione causa un'interferenza distruttiva che diminuisce
l'intensità del raggio riflesso. Il cambiamento di intensità di
quest'ultimo è misurato e trasformato in dati binari che,
opportunamente decodificati, permettono la lettura dei dati
immagazzinati sul supporto.
Volendo parlare degli elaboratori elettronici, non possiamo non
citare il fatto che la loro struttura interna , dal punto di vista
logico , deriva dalla cosiddetta " architettura di Von Neumann
(1945) " un matematico ungherese . Lo studio dei fenomeni
atomici e la loro simulazione necessitavano di una quantità enorme
di calcoli. Per questo , diversi scienziati , in tutto il mondo ,
stavano rializzando calcolatori , sfruttando la caratteristica
delle valvole termoioniche di agire come interruttori
di corrente , per questo vi era bisogno di rappresentare grandezze in
codice binario. I circuiti dei calcolatori esistenti venivano "
montati " e "collegati " in modo da poter effettuare
un'altra sequenza di operazioni , sarebbero stati necessari
giorni e giorni di lavoro per smontarli e montarli diversamente . Si
era , quindi , alla ricerca di qualcosa di meno macchinoso e
rigido : la gara era tesa alla scoperta di una macchina
veramente programmabile. Von Neumann propose una struttura molto
semplice , che è poi quella che troviamo nei nostri PC.
Secondo
Von Neumann, gli elementi essenziali di un calcolatore
programmabile sono :
l'unità di controllo , che controlla la sequenza
delle operazioni perché avvenga in maniera corretta .
l'unità aritmetico-logico, (detta ALU, aritmetic logic unit
), che esegue le operazioni di tipo aritmetico logico.
l'accumulatore, unità di memoria collocata all'interno dell
'ALU , in grado di ricevere le informazioni dall' esterno (
imput o/e output ).
la memoria, alla quale doveva essere possibile accedere in
tempo brevissimo per recuperare i dati e il programma in essa
contenuti .
Dall'esterno attraverso il canale imput , vengono caricati i dati
e il programma ; l'unità di controllo passa una instruzione alla
volta all'ALU ,insnsieme ai dati su cui opera. I risultai intermine
vengono posti in memoria, in un altra area , ed il ciclo continua
fino a quando il risultato finale viene presentato al mondo esterno
attraverso il canale di output .
Le valvole termoioniche :
La valvola termoionica (o tubo a vuoto) è stato il
primo componente elettronico "attivo" realizzato
dall'uomo. Per "attivo" si intende un componente che,
grazie ad una fonte esterna di energia, fornisce in uscita un segnale
di potenza amplificato. Il funzionamento di massima è semplice: la
corrente passa fra due elettrodi: l'anodo ed il catodo. A
seconda della tensione a cui sono poste alcune parti metalliche
(griglie) frapposte tra i due elettrodi,
il catodo emette elettroni per effetto
termoionico, cioè per riscaldamento.
Poiché il flusso di corrente è dovuto agli elettroni (non a
ioni), taluni chiamano il dispositivo valvola termoelettronica.
Sino agli anni sessanta, tubi termoionici di vari tipi
venivano impiegati in quantità in apparecchiature elettroniche quali
ricevitori e trasmettitoriradio, televisori ed in generale
in tutti i tipi di amplificatori di segnali elettrici. Anche i
primi calcolatori elettronici furono realizzati interamente
mediante tubi termoionici. L'invenzione della valvola termoionica
rese possibile il passaggio dalla radiotelegrafia alla radiofonia,
poiché, amplificando i segnali elettrici, permetteva di trasmettere
non più solo impulsi telegrafici, ma anche voci e suoni, inaugurando
così l'era deimass media.
Sebbene oggi i transistor, nelle loro varie forme e
tipologie, abbiano soppiantato le valvole in quasi ogni applicazione,
esse restano gli unici mezzi per amplificare segnali a potenze molto
alte, dell'ordine del kilowatt o superiori, e per
particolari apparati audio di alta fedeltà. I fotorivelatori a
semiconduttore possono essere vantaggiosamente impiegati al posto dei
fotodiodi a vuoto in presenza di esposizione a radiazioni ionizzanti,
poiché ne risultano immuni.
Un tubo a vuoto, il magnetron, è presente in ogni
comune forno a microonde. Anche il tubo catodico dei
televisori non è altro che un particolare tipo di tubo termoionico.
Il tubo termoionico è costruttivamente simile alla
comunissima lampadina, infatti non è altro che un involucro
di vetro (in alcuni modelli è di metallo o di ceramica)
nel quale è praticato il vuoto contenente un filamento
metallico portato all'incandescenza (tra i 1.000 ed i 3.000 °C)
facendolo attraversare da una corrente elettrica. A differenza
della lampadina contiene uno o più elementi metallici (a forma di
griglia o di schermi), collegabili dall'esterno. Il filamento
metallico, o meglio un tubicino metallico che lo avvolge, è
chiamato catodo, l'elemento metallico più esterno è
chiamato anodo. Eventuali elementi intermedi sono chiamati
griglie di controllo. Il principio di funzionamento del tubo termoionico è quello
dell'emissione termoionica: ogni metallo, soprattutto ad alte
temperature, emette elettroni, cariche elettriche elementari di
segno negativo. Se il catodo è polarizzato negativamente rispetto
all'anodo, ovvero se il catodo è collegato al polo negativo di una
batteria e l'anodo a quello positivo, si stabilirà un flusso di
elettroni, ossia una corrente elettrica, tra catodo e anodo (perché
gli elettroni vengono attratti dall'anodo). Se la polarizzazione è
opposta, nessuna corrente elettrica passerà tra catodo ed anodo,
perché l'anodo respingerà gli elettroni. Il risultato è quello di
un dispositivo in grado di far passare la corrente in un solo senso,
detto rettificatore oppure diodo.
Nei primi tipi di valvola, il catodo era a riscaldamento
diretto, ossia il catodo era costituito dal filamento stesso. Il
sistema venne abbandonato, visti i problemi legati alla necessità di
far lavorare i catodi a tensioni diverse (vedi valvole multiple,
doppi triodi, triodi-pentodi). Il compito di scaldare il catodo è
oggi affidato a un filamento simile a quello delle lampadine a bassa
tensione, inserito all'interno di un tubetto in lega
di nichel rivestito di elementi che favoriscono l'emissione
elettronica (ossidi di bario e stronzio), che
costituisce il catodo. Questa soluzione, detta a riscaldamento
indiretto, consente inoltre di alimentare i filamenti di differenti
valvole di un'apparecchiatura con una fonte comune, solitamente un
avvolgimento secondario apposito di un trasformatore. Il
collegamento tra i filamenti può essere in serie o in
parallelo.
Se tra catodo ed anodo viene posta una griglia metallica, è
intuitivo che se questa è polarizzata positivamente rispetto al
catodo, ma meno dell'anodo, gli elettroni emessi dal catodo vi
saranno attratti e quindi passeranno attraverso le maglie della
griglia per raggiungere l'anodo. Contrariamente, se la griglia è
polarizzata negativamente, questa respingerà gli elettroni
provenienti dal catodo. Pertanto applicando una tensione variabile
tra catodo e griglia, si otterrà un passaggio di corrente tra catodo
ed anodo che seguirà, amplificandolo, l'andamento del segnale alla
griglia. L'effetto risultante è quello di un'amplificazione di
corrente ed un tubo termoionico siffatto si dice triodo.
Il triodo e le sue varianti (tetrodo, pentodo, eptodo, ecc. così
chiamati all'aumentare delle griglie di controllo) sono stati i primi
dispositivi elettronici fondamentali per l'amplificazione dei segnali
elettrici, agli albori dell'elettronica, compiendo quelle funzioni
oggi quasi interamente realizzate dai transistori.