aScuola.net ::: Il Portale degli Studenti - Tesine, Ricerche, Relazioni, Temi, Compiti, e Appunti gratis!

aScuola.net - Il Portale degli Studenti

Ci sono al momento 19 studenti connessi -

Hacking Cracking e Sicurezza Informatica
Pubblicità Network ENKEY


materie


tesine


ricerche

aScuola.net tra i tuoi Preferiti -
fai di questo Portale la tua Home Page -


relazioni


temi


appunti

     
 
Ti trovi sulla pagina:

:: Oggi è Domenica 3 Aprile 2005 ::

- Materie : : : Informatica

Menu Scuola
- Home Page
- Forum
- Invio materiale
- Links
- Contatti
- Agraria
- Algebra
- Antropologia
- Archeologia
- Architettura
- Aritmetica
- Artistica
- Astronomia
- Biologia
- Chimica
- Dattilografia
- Diritto
- Economia
- Educazione Civica
- Educazione Fisica
- Elettronica
- Filosofia
- Finanze
- Fisica
- Geografia
- Geologia
- Geometria
- Giurisprudenza
- Grammatica
- Informatica
- Ingegneria
- Italiano
- Letteratura
- Lingue Straniere
- Matematica
- Medicina
- Musica
- Psicologia
- Ragioneria
- Religione
- Scienze
- Scienze Ambientali
- Scienze Politiche
- Sessuologia
- Sociologia
- Statistica
- Storia
- Stenografia
- Tecnica Bancaria
- Teologia
- Dal 2° Dopoguerra all'UE
- Secondo dopoguerra e Guerra...
- Geometrie non-euclidee
- Fisica della Fissione Nucleare
- Oltre la terza dimensione
- I contrasti tra Cristianesimo e...
- Progetto Genoma Umano
- La Biomeccanica Teatrale
- Storia dell'Arte
- Acque (merceologia)
- Alchimia, Energia, Industrie
- Il Mercantilismo
- Rivoluzione Industriale
- La Globalizzazione
- Fontamara
- La Droga
- La Sindone
- Etica
- François Quesnay
- Arti Visive
- L'Universo Invisibile
- Fisica delle Basse Temperature
- Un figlio a tutti i costi
- La Donazione degli Organi - Raffaello
- Michelangelo
- Leonardo Da Vinci
- Correggio e Parmigianino
- Tiziano
- Palladio

[ Partners ]
- ENKEY.iT
- DEVA.iT
- Enkey WebSite
- Skuole.net
- Motore di Ricerca
- Carbonia
- ICDweb
- Universo Facile
- Carbonia.net

- Recensioni Giochi
1. Introduzione
L'Informatica è la disciplina che studia la progettazione, la programmazione e l'applicazione del computer all'elaborazione e al trasferimento delle informazioni; i risultati ottenuti dall'informatica si applicano in tutti i settori della vita quotidiana, dalla ricerca scientifica agli studi economici e finanziari, all'automazione dei processi produttivi industriali. Fanno parte dell'informatica diversi campi specialistici di indagine, quale quello sull'intelligenza artificiale, la robotica, la domotica, la burotica. L'informatica basa i suoi studi e risultati su numerose altre discipline: l'ingegneria elettronica, la teoria dell'informazione e dei linguaggi, la matematica e la logica.

2. Le Origini
Le origini dell'informatica possono essere fatte risalire alla progettazione delle prime macchine in grado di effettuare operazioni matematiche (il calcolatore di Pascal nel XVII secolo, la macchina differenziale di Babbage nel XIX secolo), ma solo a partire dal 1930 circa l'informatica diventa una disciplina scientifica a sé stante. Nella seconda metà degli anni Quaranta, gli studi e le esperienze di Turing in Inghilterra e di Atanasoff negli Stati Uniti portarono alla costruzione delle prime macchine elettroniche capaci di elaborare informazioni e algoritmi complessi. Queste macchine erano molto ingombranti (occupavano intere stanze) e utilizzavano migliaia di valvole: venivano programmate in linguaggio macchina, da operatori che manualmente, azionando determinati interruttori esterni, modificavano le connessioni fra i circuiti. Solo verso la fine degli anni Cinquanta il lavoro di programmazione veniva semplicato, con l'introduzione delle schede perforate. brandmedicines.com

3. Evoluzione dell'Hardware
L'introduzione dei transistor, nella seconda metà degli anni Cinquanta, e successivamente quella dei circuiti integrati, nella seconda metà degli anni Sessanta, trasformarono gradualmente l'elaboratore elettronico in uno strumento di dimensioni più ridotte, affidabile, che di conseguenza iniziò a essere disponibile sul mercato. I primi computer erano macchine costose, che potevano venire acquistate solo da agenzie governative, grossi centri di ricerca e università; in seguito, l'abbassamento dei prezzi e la differenziazione di dimensioni e prestazioni delle macchine allargò l'utenza anche a società private. Con l'introduzione dei microprocessori (capaci di elaborare le informazioni a gruppi di 8, 16 e 32 bit), a partire dalla seconda metà degli anni Settanta, nacquero i microcomputer, o personal computer, che resero l'elaboratore elettronico accessibile alla grande utenza, sia dal punto di vista del prezzo che dell'ingombro. Anche l'interfaccia con l'utente subì notevoli semplificazioni: alle schede perforate si affiancarono i terminali video (con maggiore controllo sulla macchina), le unità nastro (con la possibilità di archiviare ingenti quantità di dati) e più recentemente i modem (per collegare fra loro i computer attraverso le normali linee telefoniche). Negli anni Ottanta si avviò uno sviluppo di microprocessori di potenza crescente (Z 80 di Zilog, da 8088 fino a P6 di Intel, 680xx di Motorola, microprocessori a tecnologia RISC, Alpha di Digital) che continuò negli anni seguenti con rapidità incalzante, spinto dall'espansione del mercato. I progettisti di sistemi informatici si dovettero però preoccupare non solo di creare microprocessori più potenti, ma soprattutto, per soddisfare le esigenze del mercato, di semplificare l'utilizzo dei microcomputer. Nei laboratori di Palo Alto della Xerox si cominciarono a studiare nuove interfacce utente: nacquero la presentazione delle istruzioni in forma di "finestra" (utilizzata poi nei sistemi come Apple MacOs, Microsoft Windows, OSF-Motif, X-Window) e sistemi di puntamento innovativi (mouse, touch screen, joystick, penne ottiche).

4. Evoluzione del Software
All'evoluzione dell'architettura interna dell'elaboratore si sono naturalmente accompagnati lo sviluppo del software necessario a far funzionare le macchine (sistemi operativi), dei programmi (applicazioni) che su tali macchine possono essere utilizzati e dei linguaggi in cui i programmi sono scritti.
I primi sistemi operativi facevano uso di modalità batch (sistemi di elaborazione sequenziale) di esecuzione dei programmi, attualmente ancora utilizzata solo nei centri di calcolo per l'elaborazione di programmi molto lunghi, dotati di funzioni e calcoli laboriosi; più comunemente oggi l'elaborazione avviene in modo interattivo, ovvero con una risposta immediata della macchina alle richieste dell'utente.
I primi linguaggi di programmazione di alto livello, sviluppati a partire dalla metà degli anni Cinquanta, furono il FORTRAN, orientato alle applicazioni scientifiche, e il COBOL, orientato alle applicazioni di carattere commerciale. Intorno agli anni Sessanta gli studi sull'intelligenza artificiale portarono allo sviluppo di linguaggi funzionali, costituiti essenzialmente da un sistema di definizioni di funzioni e dalle loro chiamate. Il più famoso di questi linguaggi è il LISP, ebbe poca fortuna inizialmente, riuscendo ad affermarsi solo a partire dalla fine degli anni Settanta, soprattutto in settori dove non era applicabile l'analisi numerica, ma si rendeva necessaria una programmazione in termini di simboli e strutture.
Le varietà degli utenti dei sistemi informatici ha accresciuto la differenziazione fra i sistemi operativi e i linguaggi di programmazione dei computer per l'utenza scientifica (macchine molto potenti, progettate per eseguire calcoli numerici) e di quelli per il vasto pubblico (macchine pensate prevalentemente per la stesura di testi, meno potenti, ma con maggiore facilità di utilizzo e migliori interfacce per l'utente). La necessità di poter rendere disponibile uno stesso computer a più utenti (multiutenza), in centri di ricerca, università e aziende, condusse allo sviluppo di sistemi operativi multiutente come Unix.
Per quello che riguarda i piccoli elaboratori, l'esigenza di unificare l'offerta sul mercato si tradusse nella progettazione di sistemi operativi più flessibili come, ad esempio, il System-360 dell'IBM, che permetteva di utilizzare il medesimo software su computer diversi, per prestazioni e prezzo.
La proliferazione degli utilizzi dei computer condusse i programmatori a richiedere e sviluppare linguaggi più potenti e versatili: nacquero così linguaggi come il C (dalle necessità degli sviluppatori di Unix), il Pascal (linguaggio creato per scopi didattici), Ada (su direttive del Dipartimento della Difesa); intanto il bisogno di scambiare dati e programmi in maniera affidabile fra i vari utilizzatori della tecnologia spingeva gli operatori verso lo sviluppo di una rete di trasmissione delle informazioni facilmente accessibile da qualsiasi parte del mondo. In particolare si deve alla richiesta del Dipartimento della Difesa statunitense di progettare un sistema di trasmissione di dati abbastanza robusto da "sopravvivere" a un conflitto mondiale lo sviluppo, nella prima metà degli anni Settanta, dei protocolli TCP-IP, su cui è basato Internet.
La comparsa di computer più potenti fornì un notevole impulso agli studi di informatica in quanto, allargandosi l'utenza e l'utilizzo, si presentava la necessità di risolvere nuovi problemi sia di elettronica che di linguaggio.
Negli anni Ottanta nascono linguaggi di programmazione da utilizzare su macchine speciali, come il C++, un'estensione del C orientata agli oggetti, per la programmazione di calcolatori paralleli, o il Prolog, progettato per l'intelligenza artificiale; vengono intanto sviluppati linguaggi orientati a compiti particolari e ben specifici: Postscript Adobe (per la gestione delle comunicazione con sistemi di stampa e visualizzazione), SQL (per l'interrogazione di database client-server), Tcl/Tk (per la realizzazione di interfacce utente), HTML (per la realizzazione di pagine Web), Mathematica (allo stesso tempo linguaggio di programmazione e software per la gestione di problemi matematici).

5. Sviluppi recenti
Lo sviluppo del mercato dei personal computer e la crescita delle loro capacità di prestazione hanno via via ridotto le differenze fra i microcomputer e i sistemi professionali (workstation). Si è verificata una convergenza delle due linee di prodotti, sia in termini di hardware che di software: sistemi operativi pensati per macchine "universitarie" (come Unix) vengono portati sui personal (per diventare Linux) e contemporaneamente sistemi monoutente (MS-DOS) evolvono verso la multiutenza e la condivisione di risorse (Microsoft Windows).
Gli sviluppi dell'informatica negli anni Novanta sono principalmente dovuti al progressivo affermarsi della rete mondiale Internet e alla richiesta di sempre più numerosi servizi attraverso di essa: si sono così diffusi linguaggi pensati espressamente per la rete, come Java (orientato agli oggetti, per la condivisione di codice eseguibile e servizi client-server), e vari programmi per la navigazione (Netscape Navigator, Microsoft Internet Explorer). La crescente potenza dei microprocessori permette oggi di gestire attraverso il computer, oltre al testo e alle immagini fisse, anche suoni e immagini in movimento; è possibile ottenere in un unico documento diversi tipi di informazione, realizzando quel tipo di comunicazione noto come multimedialità. Oggi l'informatica costituisce, nei paesi maggiormente industrializzati, un tipo di infrastruttura dalla quale è impossibile prescindere per svolgere la maggior parte delle attività lavorative, dalle più comuni alle più sofisticate; sta diventando una tecnologia fondamentale per migliorare diversi servizi pubblici, dalla sanità ai trasporti, e sta entrando di prepotenza nelle abitazioni, attraverso il controllo elettonico e l'automatizzazione di quasi tutti gli apparecchi utilizzati quotidianamente.

6. Architettura Informatica
In informatica, la combinazione degli elementi hardware che costituiscono la struttura di un computer, o anche la struttura logica del software di un sistema (ad esempio, del sistema operativo).
L'architettura di un computer comprende tutti i componenti, principali e secondari, necessari al suo funzionamento: il sistema di elaborazione, gli elementi integrati, la circuiteria e i programmi di sistema. Vengono generalmente esclusi i programmi applicativi, necessari per eseguire compiti specifici, ma non indispensabili al funzionamento della macchina. Per architettura di rete si intende la struttura logica di un insieme di più macchine collegate in una rete di comunicazione.
Un'architettura è detta aperta se le sue specifiche sono pubblicate e liberamente accessibili; chiusa, se le specifiche sono detenute solo dall’azienda produttrice, che impedisce l’integrazione di dispositivi prodotti da altre aziende.

Architettura Hardware
L'architettura di un computer è solitamente sequenziale (architettura sequenziale di van Neumann); per ottenere una maggiore rapidità di esecuzione delle operazioni, numerosi elaboratori utilizzano un'architettura parallela (o concorrente). Ne sono un esempio i processori a schiera (array processor), capaci di eseguire le operazioni in forma matriciale. Dotate di architettura SIMD (Single Instruction, Multiple-Data), sono macchine adatte all'elaborazione di immagini e alla simulazione di eventi fisici.
Nel campo dei microprocessori si distinguono diversi tipi di architetture: l'architettura CISC (Complex Instruction Set Computing) permette di elaborare istruzioni complesse, ma in tempi relativamente lunghi, che vengono essenzialmente impiegati a risolvere, per un numero enorme di volte, un ristretto gruppo di istruzioni (il 20% di tutte le eseguibili). Proprio per permettere al computer di eseguire rapidamente un limitato numero di istruzioni, occorrenti frequentemente, è stata ideata l'architettura RISC (Reduced Instruction Set Computing): è un tipo di architettura a pipeline, capace di disporre nuove istruzioni per il processore già durante l'esecuzione dell'istruzione corrente. Se un sottosistema a disco usa una memoria per pre-caricare e mantenere le informazioni, si dice dotato di architettura cache.
Nel caso di architettura chiusa, la riservatezza delle informazioni rende difficile, per altre aziende, la produzione di dispositivi compatibili con tali macchine; di solito, solo il produttore originale è in grado di realizzare periferiche o espansioni per il sistema. Al contrario, l'architettura aperta facilita lo sviluppo di hardware addizionale da parte di terzi, indipendentemente dal produttore. Il personal computer introdotto nel 1981 da IBM è un tipico caso di architettura aperta: fin dalla sua comparsa furono rese disponibili le caratteristiche del sistema, permettendo a numerose altre aziende di realizzare prodotti simili e di allargare il mercato.

Architettura di Rete
Per le reti si parla di architettura client-server. Questa particolare configurazione delle reti locali funziona in base al principio di "intelligenza distribuita": in essa il server e le singole postazioni di lavoro sono considerati dispositivi "intelligenti", ossia programmabili in modo da sfruttare pienamente le loro capacità di elaborazione. L'esecuzione di un'applicazione viene suddivisa tra due componenti fisicamente distinti: il client, accessibile all'utente, e il server, "nascosto" all'utente. Il componente client, rappresentato generalmente da un personal computer completo e autosufficiente (diversamente dai terminali che si trovavano nelle vecchie architetture, privi di microprocessore, detti "muti" perché capaci di funzionare essenzialmente solo come video e tastiera), fornisce tutta la sua potenza e le sue prestazioni all'utente. Il server, che può essere un altro personal computer, un minicomputer o un mainframe, integra il componente client fornendo le tradizionali risorse offerte da minicomputer e mainframe in condivisione: gestione dei dati, distribuzione delle informazioni tra i diversi client, amministrazione sofisticata della rete e prestazioni relative alla sicurezza.
Il vantaggio dell'architettura client-server rispetto alle precedenti risiede nel fatto che macchine client e server operano insieme per portare a termine le elaborazioni richieste dall'applicazione in svolgimento: questo non solo aumenta la capacità di elaborazione disponibile, ma ne permette un uso più efficiente. La porzione di applicazione affidata a un client è in genere ottimizzata in funzione dell'interazione con l'utente, mentre il server sovrintende alle operazioni centralizzate e multiutente.

Architettura Software
Nel settore del software il termine indica la definizione completa e dettagliata delle diverse parti logiche che costituiscono un programma o un servizio, come l'interfaccia tra utente e computer, il sistema operativo o un sistema di protocolli di comunicazione tra elaboratori diversi.



visitatori

- Manga
- Wallpapers
- Musica
- Mistero
- Giochi
- Trucchi
- Download
- Forum
- Annunci
- Articoli
- News
- Chat
- Demenza
- Cartoline
- Netiquette
- Credits
- Links
- Newsletter
- Guestbook
- Note Legali
- Servizi
- Hacking
- Emulatori
- Animali
- Fisica
- Scuola
- Ricerche
- Sardegna
- Carbonia
- Warez

 
     

Scuola Tesine Ricerche Relazioni Temi Appunti Documenti Scaricare Gratis

Risoluzione consigliata 800x600 o superiore

Copyright © 1999-2005 ENKEY
Tutti i diritti sono riservati

il webmaster