Nel novembre del 1971, una società chiamata Intel introdusse pubblicamente il primo microprocessore a chip singolo al mondo, Intel 4004 (brevetto U.S. n. 3.821.715), inventato dagli ingegneri Intel Federico Faggin, Ted Hoff e Stanley Mazor. Dopo l'invenzione dei circuiti integrati ha rivoluzionato il design dei computer, l'unico posto dove andare era la dimensione ridotta. Il chip Intel 4004 ha portato il circuito integrato un ulteriore passo in avanti posizionando tutte le parti che hanno fatto pensare un computer (cioè unità di elaborazione centrale, memoria, controlli di input e output) su un piccolo chip. La programmazione dell'intelligence in oggetti inanimati era ora diventata possibile.
Nel 1968, Robert Noyce e Gordon Moore erano due ingegneri infelici che lavoravano per la Fairchild Semiconductor Company che decisero di abbandonare e creare la propria azienda in un momento in cui molti dipendenti di Fairchild lasciavano la creazione di start-up. Persone come Noyce e Moore furono soprannominate "Fairchildren".
Robert Noyce si è scritto un'idea di una pagina di ciò che voleva fare con la sua nuova compagnia, e questo è bastato a convincere Art Rock, il capitalista di venture capital di San Francisco, a sostenere la nuova avventura di Noyce e Moore. Rock ha raccolto $ 2,5 milioni di dollari in meno di 2 giorni.
Il nome "Moore Noyce" era già un marchio registrato da una catena alberghiera, quindi i due fondatori decisero il nome "Intel" per la loro nuova società, una versione abbreviata di "Elettronica integrata".
Il primo prodotto per fare soldi di Intel è stato il chip 3101 Schottky bipolare a memoria statica ad accesso casuale (SRAM) a 64 bit.
Alla fine del 1969, un potenziale cliente giapponese chiamato Busicom, chiese di progettare dodici chip personalizzati. Chip separati per la scansione della tastiera, il controllo del display, il controllo della stampante e altre funzioni per un calcolatore prodotto da Busicom.
Intel non aveva la forza lavoro per il lavoro, ma aveva la capacità di elaborare una soluzione. L'ingegnere Intel, Ted Hoff, ha deciso che Intel poteva costruire un chip per fare il lavoro di dodici. Intel e Busicom hanno concordato e finanziato il nuovo chip logico programmabile per scopi generici.
Federico Faggin ha guidato il team di progettazione insieme a Ted Hoff e Stanley Mazor, che hanno scritto il software per il nuovo chip. Nove mesi dopo, nacque una rivoluzione. A 1/8 di pollice di larghezza per 1/6 di pollice di lunghezza e costituito da 2.300 MOS (semiconduttori a ossido di metallo), il chip per bambini aveva la stessa potenza dell'ENIAC, che aveva riempito 3000 piedi cubi con 18.000 tubi a vuoto.
Intelligentemente, Intel ha deciso di riacquistare i diritti di progettazione e marketing per la 4004 da Busicom per $ 60.000. L'anno successivo Busicom fallì, non produssero mai un prodotto usando il 4004. Intel seguì un piano di marketing intelligente per incoraggiare lo sviluppo di applicazioni per il chip 4004, portando il suo uso diffuso in pochi mesi.
Il 4004 è stato il primo microprocessore universale al mondo. Alla fine degli anni '60, molti scienziati avevano discusso della possibilità di un computer su un chip, ma quasi tutti pensavano che la tecnologia dei circuiti integrati non fosse ancora pronta a supportare tale chip. Ted Hoff di Intel la pensava diversamente; è stato il primo a riconoscere che la nuova tecnologia MOS siliconata potrebbe rendere possibile una CPU a chip singolo (unità centrale di elaborazione).
Hoff e il team Intel hanno sviluppato una tale architettura con poco più di 2.300 transistor in un'area di soli 3 per 4 millimetri. Con la sua CPU a 4 bit, il registro dei comandi, il decodificatore, il controllo della decodifica, il controllo del controllo dei comandi della macchina e il registro provvisorio, il 4004 era un diavolo di una piccola invenzione. I microprocessori a 64 bit di oggi sono ancora basati su progetti simili e il microprocessore è ancora il prodotto più complesso mai prodotto in serie con oltre 5,5 milioni di transistor che eseguono centinaia di milioni di calcoli al secondo, numeri che sicuramente saranno obsoleti velocemente.