sábado, 17 de julio de 2010

La historia del PC





La historia del PC

La primera computadora: el ábaco



El ábaco es considerado como el más antiguo instrumento de cálculo, adaptado y apreciado en diversas culturas. El origen del ábaco está literalmente perdido en el tiempo. En épocas muy tempranas el hombre primitivo encontró materiales para idear instrumentos de conteo. Es probable que su inicio fuera una superficie plana y piedras que se movían sobre líneas dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en China, donde el uso de este instrumento aún es notable al igual que en Japón. Pero, en nuestra opinión el ábaco nació en el Sáhara (no olvidemos que el neolítico sahariano es muy anterior al egipcio), y el antecesor del actual ábaco eran dameros rayados en la arena o en las rocas, con uso polivalentes tanto para realizar cálculos aritméticos como para jugar a infinidad de juegos tradicionales de inteligencia, que en el Sahara y en las Islas Canarias son muy abundantes. No debe olvidarse que la historia de la humanidad comienza en Africa y es ahí donde tienen lugar las primeras manifestaciones constatadas de registros numéricos de la historia del ser humano: el hueso de Ishango.

Debido a que gran parte de la aritmética se realizaba en el ábaco, el término ábaco ha pasado a ser sinónimo de aritmética; encontramos tal denominación en Leonardo de Pisa Fibbonacci (1170-1250) en su libro "Liber Abaci" publicado en 1202 y en 1228, que trata del uso de los números indo-arábigos. La copia que llegó hasta nosotros corresponde a la edición de 1228.

Muchas culturas han usado el ábaco o el tablero de conteo, aunque en las culturas europeas desapareció al disponerse de otros métodos para hacer cálculos, hasta tal punto que fue imposible encontrar rastro de su técnica de uso. Las evidencias del uso del ábaco surgen en comentarios de los antiguos escritores griegos. Por ejemplo, Demóstenes (384-322 a. C.) escribió acerca de la necesidad del uso de piedras para realizar cálculos difíciles de efectuar mentalmente. Otro ejemplo son los métodos de cálculo encontrados en los comentarios de Heródoto (484-425 a. C.), que hablando de los egipcios decía: "Los egipcios mueven su mano de derecha a izquierda en los cálculos, mientras los griegos lo hacen de izquierda a derecha".

Algunas de las evidencias físicas de la existencia del ábaco se encontraron en épocas antiguas de los griegos en las excavaciones arqueológicas. En 1851 se encontró una gran ánfora de 120 cm de altura, a la que se denominó "Vaso de Darío" y entre cuyos dibujos aparece una figura representando un contador que realiza cálculos manipulando cuentas. La segunda muestra arqueológica es un auténtico tablero de conteo encontrado en 1846 en la isla de Salamis; el tablero de Salamis, probablemente usado en Babilonia 300 a. C., es una gran pieza de mármol de 149 cm de largo por 75 cm de ancho, con inscripciones que se refieren a ciertos tipos de monedas de la época; este tablero está roto en dos partes.

Por otra parte se sabe que los romanos empleaban su ábaco con piedra caliza o mármol para las cuentas a las que denominaron "calculi" esta palabra es la raíz de la palabra cálculo.



La segunda computadora: la Pascalina



La Pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas y engranes.Fue inventada por Blaise Pascal en 1645, tras tres años de trabajo sobre la misma. Se fabricaron varias versiones y Pascal en persona construyó al menos cincuenta ejemplares.

El primer uso de la Pascalina fue en la Hacienda francesa, debido a que Pascal diseñó la Pascalina para ayudar a su padre, que era contador en dicha entidad. Debido a ello la Pascalina estaba destinada básicamente a solucionar problemas de aritmética comercial.

En 1670 el filósofo y matemático alemánico Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar las colas.


La Pascalina conoció un período de gloria en los años 1960, debido a que se usó de forma interna en la compañía IBM. Por aquellos tiempos era el único dispositivo que permitía efectuar muy rápidamente cálculos en numeración hexadecimal, lo que era necesario para la depuración de los programas. Se exponen varios ejemplares originales en Inglaterra, en el Museo de Artes y Oficios.


Transición y computadoras electrónicas

¿Cómo se miden los avances tecnológicos de las computadoras?

Una computadora moderna es en gran medida un conjunto de interruptores electrónicos, los cuales se utilizan para representar y controlar el recorrido de datos denominados dígitos binarios (bits, un "0" o un "1".

El desarrollo del transistor fue uno de los inventos más importantes para la revolución de la computadora personal. Este fue inventado en 1948 por los ingenieros John Bardeen, Walter Brattain Y William Shockley de los laboratorios Bell.

Funciona como un interruptor de estado sólido, que sustituyó al bulbo que era mucho menos adaptable por su tamaño y consumo de energía.

La conversión a transistores provocó la tendencia hacia la miniaturización que continúa hasta el día de hoy.

En 1959, los ingenieros de Texas Instruments inventaron el CI (circuito integrado o chip), un semiconductor que contiene más de un transistor sobre la misma base y que conecta los transistores sin necesidad de cables.

El primer CI tenía seis transistores. En comparación, el microprocesador Pentium Pro de Intel, que se usa en muchos de los sistemas mas avanzados, tiene mas de 5.5 millones de transistores, y la memoria caché integral que incluyen algunos de estos procesadores contiene ¡hasta 32 millones de transistores adicionales! Actualmente, muchos chips tienen transistores que pueden contarse en varios millones.

¿Cómo se miden los avances tecnológicos de las computadoras?

Una computadora esta formada por dos componentes estructurales con el mismo nivel de importancia:

- El equipo físico (hardware): Por sus características constructivas (circuitos, arquitectura global del sistema, tecnología electrónica).
- Los programas con los que funciona (software): Por los programas básicos con los que opera. Es decir, como se entabla comunicación con ella (lenguajes, sistema operativo, interfaces).

Lo cual significa que su grande avance debe considerarse en esas dos direcciones.

Desde la invención de la primera computadora, estas han tenido un avance que se puede estudiar en términos de "generaciones".

Abarca desde los inicios de los años 50 hasta los 60, y
- Estaban construidas con electrónica de bulbos
- Se programaban en lenguaje de máquina (nivel mas bajo de representación de la información)

Los programas son un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje mas simple en el que puede escribir un programa es el lenguaje de máquina (porque el programa se escribirse con un conjunto de códigos binarios).

La primera generación



- 1947 ENIAC. Primera computadora digital electrónica. Fue una máquina experimental. No era programable como las computadoras actuales. Era un enorme aparato que ocupa todo el sótano en la Universidad de Pennsylvania. Tenía 18,000 bulbos, consumía varios KW de potencia y pesaba algunas toneladas. Realizaba hasta cinco mil sumas por segundo. Fue echa por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la Universidad de Pennsylvania, en los Estados Unidos.





- 1949 EDVAC. Primera computadora programable. También fue un prototipo de laboratorio, pero ya incluía en sí diseño las ideas centrales que conforman a las computadoras actuales. Incorporaba las ideas del doctor John von Neumann.





- 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la oficina del censo de Estados Unidos.





- 1953 IBM 701. Para introducir los datos, estos equipos empleaban el concepto de tarjetas perforadas, que había, sido inventada en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionado por el estadounidense Hermand Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas.

- 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en disco magnético.


Segunda generación



Estas computadoras ya no utilizaban bulbos, sino transistores, más pequeños y consumen menos electricidad.

La forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, llamados "lenguajes de alto nivel" o lenguajes de programación.

Esta segunda generación duro pocos años, porque hubo nuevos avances tanto en el hardware como en el software.

Tercera generación



Esta nueva generación fue inaugurada con la presentación comercial de la llamada "serie 360"de IBM.

IBM se dedicó a los aspectos de ingeniería, comercialización y mercadotecnia de sus equipos, y en corto tiempo la noción de las computadoras salió de los laboratorios y las universidades y se instaló como un componente imprescindible de la sociedad industrial moderna.

Las computadoras de la tercera generación tienen ventajas importantes, debido a dos factores fundamentales:

- Están hechas a base de agrupamientos de transistores miniaturizados en paquetes conocidos como circuitos integrados (C.I. o Chips)
- Aunque se siguen programando en lenguajes de alto nivel, ahora un método de comunicación con el programador que resulta mas fácil de emplear que el anterior.

Es decir, la electrónica de las computadoras de la tercera generación (circuitos integrados) es más compacta, rápida y densa que la anterior, y la comunicación se establece mediante una interfaz (un intermediario) conocida como sistema operativo.

Cuarta generación



El nacimiento de las microcomputadoras tuvo lugar en los Estados Unidos, a partir de la comercialización de los primeros microprocesadores (Intel 8008,8080) a comienzos de la década de 1970.

Tendencias

Durante la década de 1970 se impusieron dos tendencias:
- Los sistemas Apple,
- La PC de IBM: que comenzó una explosión comercial masiva, con su introducción, en 1981.

Esta última máquina (basada en microprocesador Intel 8088) tenia características interesantes, sobre todo porque su nuevo sistema operativo estandarizado (MS-DOS, Microsoft Disk Operating System) tenía una capacidad mejorada de graficación, la hacían más atractiva y más fácil de usar.

Existe una familia completa de sistemas de computadoras personales, que se conocen con las nomenclaturas XT, AT y PS/2.

- 1971 Microprocesador Intel 8008. Circuito de alta integración que luego daría inicio a las microcomputadoras.
- 1975 Aparece la microcomputadora Apple. Aparece el microprocesador Zilog Z80. Inicia el auge de la microcomputación.
- 1981 IBM lanza la computadora personal, luego conocida como PC-XT
- 1984 IBM ofrece la computadora personal PC-AT, basada en el microprocesador Intel 80286.
- 1988 IBM presenta la serie de computadoras personales PS/2, algunas de las cuales emplean el microprocesador 80386. Surge una gran cantidad de computadoras con ese y otros procesadores similares.
- 1991 Microprocesador de muy alto rendimiento: Intel 80486, Motorola 68040, Sparc, tecnología RISC, etc. Microprocesador Power PC (Performace Optimization With Enhanced RISC PC) resultado de alianza de Apple, IBM y Motorola.
- 1993 Intel lanza al mercado el procesador 80586 conocido como Pentium.

En la actualidad los circuitos integrados son capaces de contener secciones completas de la computadora, o a veces la computadora en su totalidad (excluyendo los medios de almacenamiento y comunicación).



Pero nunca debemos olvidar que siempre hubo una computadora más inteligente aún que creó todas las anteriores


martes, 29 de junio de 2010

Origen de los números

Antes de existir el lenguaje escrito, el hombre primitivo se comunicaba con sus semejantes gesticulando palabras o sonidos, este medio de lenguaje audible se fue perfeccionando al cabo de miles de años de su continuo uso, hasta llegar a la palabra hablada. Cuando éste deseaba recordar un hecho o transmitir un acontecimiento a sus congéneres, les comunicaba sus ideas por medio de la pictografía. Esta consistía en representar por medio de objetos lo que se deseaba expresar ayudado del dibujo o la pintura, de esta manera el hombre inventó su primera forma de comunicación no hablada, la escritura pictográfica.

Los sistemas de númeración en la antiguedad.

Aunque se carece de información fidedigna acerca de la forma como el hombre primitivo empezó a valerse de un sistema numérico, tuvo muchas razones y situaciones cotidianas que lo impulsaron a tratar de cuantificar todo lo que le rodeaba. En su etapa sedentaria se vio forzado a emplear algún método de conteo, ya fuera para saber cuantas cabezas de ganado u ovejas poseía; como también para conocer el número de armas que tenía, o para cuantificar la extensión de los terrenos sembrados o conquistados.
De esta manera el hombre descubrió el primer sistema de matemáticas aplicadas, que luego los matemáticos definirían como una correspondencia biunívoca entre dos órdenes.

También cuando éste se dedicó a la agricultura, tuvo que idear un sistema para medir el tiempo en las épocas de siembra y cosecha, finalmente en su etapa de comerciante, necesitó crear un sistema para fijar el peso, volumen y el valor de sus productos para intercambiarlos con los pueblos vecinos.

Formas de conteo primitivo.

Al tener el hombre antiguo un sistema base de medida, se vio en la necesidad de cuantificar las medidas en su modo base de contar, esta operación la llevó a cabo, por ejemplo, utilizando un sistema de rayas rasgadas en las paredes o pintadas en papiro.
Otro método era haciendo marcas en los troncos de los árboles o cortes sobre una vara para llevar un registro permanente de las cosas. Cada pueblo o tribu tuvo que inventar sus propias palabras y signos para representar sus operaciones de conteos realizados, con el comercio los antiguos mercaderes estaban obligados a saber una gran variedad de sistemas de medidas y numeración, a fin de poder comerciar con los diferentes pueblos o tribus.

Para llegar a la concepción e invención de un sistema numérico, fueron necesarios muchos miles de años antes que el hombre concibiera la idea del número, la invención de un sistema numérico es quizá una de las mayores invenciones del hombre antiguo. Dentro de estos sistemas se encuentran los aditivos, los híbridos y los posicionales.

Sistemas de Numeracion Aditivos
Para ver cómo es la forma de representación aditiva consideremos el sistema geroglífico egipcio. Por cada unidad se escribe un trazo vertical, por cada decena un símbolo en forma de arco y por cada centena, millar, decena y centena de millar y millón un geroglífico específico. Así para escribir 754 usaban 7 geroglíficos de centenas 5 de decenas y 4 trazos. De alguna forma todas las unidades están fisicamente presentes.
Los sistemas aditivos son aquellos que acumulan los simbolos de todas las unidades, decenas... como sean necesarios hasta completar el número. Una de sus características es por tanto que se pueden poner los símbolos en cualquier orden, aunque en general se ha preferido una determinada disposición.
Han sido de este tipo las numeraciones egipcia, sumeria (de base 60), hitita, cretense, azteca (de base 20), romana y las alfabéticas de los griegos, armenios, judios y árabes.

El Sistema de Numeración Egipcio

Desde el tercer milenio A.C. los egipcios usaron un sistema deescribir los números en base diez utilizando los geroglíficos de la figura para representar los distintos ordenes de unidades.

Se usaban tantos de cada uno cómo fuera necesario y se podian escribir indistintamente de izquierda a derecha, al revés o de arriba abajo, cambiando la orientación de las figuras según el caso.
Al ser indiferente el orden se escribían a veces según criterios estéticos, y solían ir acompañados de los geroglíficos correspondientes al tipo de objeto (animales, prisioneros, vasijas etc.) cuyo número indicaban. En la figura aparece el 276 tal y como figura en una estela en Karnak.

Estos signos fueron utilizados hasta la incorporación de Egipto al imperio romano. Pero su uso quedó reservado a las inscripciones monumentales, en el uso diario fue sustituido por la escritura hierática y demótica, formas más simples que permitian mayor rapidez y comodidad a los escribas.
En estos sistemas de escritura los grupos de signos adquirieron una forma propia, y asi se introdujeron símbolos particulares para 20, 30....90....200, 300.....900, 2000, 3000...... con lo que disminuye el número de signos necesarios para escribir una cifra.

El Sistema de Numeración Griego

El primer sitema de numeración griego se desarrolló hacia el 600 A.C. Era un sistema de base decimal que usaba los símbolos de la figura siguiente para representar esas cantidades. Se utilizaban tantas de ellas como fuera necesario según el principio de las numeraciones aditivas.

Los símbolos de 50, 500 y 5000 se obtienen añadiendo el signo de 10, 100 y 1000 al de 5, usando un principio multiplicativo. Progresivamente este sistema ático fue reemplazado por el jónico, que empleaba las 24 letras del alfabeto griego junto con algunos otros símbolos según la tabla siguiente.

De esta forma los números parecen palabras, ya que están compuestos por letras, y a su vez las palabras tienen un valor numérico, basta sumar las cifras que corresponden a las letras que las componen. Esta circunstancia hizo aparecer una nueva suerte de disciplina mágica que estudiaba la relación entre los números y las palabras. En algunas sociedades como la judía y la árabe, que utilizaban un sistema similar, el estudio de esta relación ha tenido una gran importancia y ha constituido una disciplina aparte: la kábala, que persigue fines místicos y adivinatorios.

Sistemas de Numeracion Híbridos
En estos sistemas se combina el principio aditivo con el multiplicativo. Si para representar 500 los sistemas aditivos recurren a cinco representaciones de 100, los híbridos utilizan la combinación del 5 y el 100. Pero siguen acumulando estas combinaciones de signos para los números más complejos. Por lo tanto sigue siendo innecesario un símbolo para el 0. Para representar el 703 se usa la combinacion del 7 y el 100 seguida del 3.
El orden en la escritura de las cifras es ahora fundamental para evitar confusiones, se dan así los pasos para llegar al sistema posicional, ya que si los signos del 10, 100 etc se repiten siempre en los mismos lugares, pronto alguien piensa en suprimirlos, dándolos por supuestos y se escriben sólo las cifras correspondientes a las decenas, centenas etc. Pero para ello es necesario un cero, algo que indique que algún orden de magnitud está vacío y no se confundan el 307 con 370, 3070 ...
Además del chino clásico han sido sistemas de este tipo el asirio, arameo, etíope y algunos del subcontinente indio cómo el tamil, el malayalam y el cingalés.

El Sistema de Numeración Chino

La forma clásica de escritura de los números en China se empezó a usar desde el 1500 A.C. aproximadamente. Es un sistema decimal estricto que usa las unidades y los distintas potencias de 10. Utiliza los ideogramas de la figura:

y usa la combinación de los números hasta el diez con la decena, centena, millar y decena de millar para según el principio multiplicativo representar 50, 700 ó 3000. El orden de escritura se hace fundamental,ya que 5 10 7 igual podría representar 57 que 75.
Tradicionalmente se ha escrito de arriba abajo aunque también se hace de izquierda a derecha como en el ejemplo de la figura. No es necesario un símbolo para el cero siempre y cuando se pongan todos los ideogramas, pero aún así a veces se
suprimían los correspondientes a las potencias de 10.

Aparte de esta forma que podríamos llamar canónica se usaron otras. Para los documento importantes se usaba una grafía más complicada con objeto de evitar falsificaciones y errores. En los sellos se escribía de forma más estilizada y lineal y aún se usaban hasta dos grafías diferentes en usos domésticos y comerciales, aparte de las variantes regionales. Los eruditos chinos por su parte desarrollaron un sistema posicional muy parecido al actual que desde que incorporó el cero por influencia india en s. VIII en nada se diferencia de este.

Sistemas de Numeración Posicionales
Mucho más efectivos que los sitemas anteriores son los posicionales. En ellos la posición de una cifra nos dice si son decenas, centenas ... o en general la potencia de la base correspondiente.
Sólo tres culturas además de la india lograron desarrollar un sistema de este tipo. Babilonios, chinos y mayas en distintas épocas llegaron al mismo principio. La ausencia del cero impidió a los chinos un desarrollo completo hasta la intraducción del mismo. Los sistemas babilónico y maya no eran prácticos para operar porque no disponían de simbolos particulares para los dígitos, usando para representarlos una acumulación del signo de la unidad y la decena. El hecho que sus bases fuese 60 y 20 respectivamente no hubiese representado en principio nigún obstáculo. Los mayas por su parte cometían una irregularidad a partir de las unidades de tercer orden, ya que detrás de las veintenas no usaban 20x20=400 sino 20x18=360 para adecuar los números al calendario, una de sus mayores preocupaciones culturales.
Fueron los indios antes del siglo VII los que idearon el sistema tal y como hoy lo conocemos, sin mas que un cambio en la forma en la que escribimos los nueve dígitos y el cero. Aunque con frecuencia nos referimos a nuestro sistema de numeración cómo árabe, las pruebas arqueológicas y documentales demuestran el uso del cero tanto en posiciones intermedias como finales en la India desde el sss. Los árabes transmitieron esta forma de representar los números y sobre todo el cáculo asociado a ellas, aunque tardaron siglos en ser usadas y aceptadas. Una vez más se produjo una gran resistencia a algo por el mero hecho de ser nuevo o ajeno, aunque sus ventajas eran evidentes. Sin esta forma eficaz de numerar y efectuar cálculos dificilmente la ciencia hubiese podido avanzar.

El Sistema de Numeración Babilónico

Entre la muchas civilizaciones que florecieron en la antigua Mesopotamia se desarrollaron distintos sistemas de numeración. En el ssss A.C. se inventó un sistema de base 10, aditivo hasta el 60 y posicional para números superiores.
Para la unidad se usaba la marca vertical que se hacía con el punzón en forma de cuña. Se ponían tantos como fuera preciso hasta llegar a 10, que tenía su propio signo.

De este se usaban los que fuera necesario completando con las unidades hasta llegar a 60.

A partir de ahí se usaba un sistema posicional en el que los grupos de signos iban representando sucesivamente el número de unidades, 60, 60x60, 60x60x60 y asi sucesivamente como en los ejemplos que se acompañan.






El Sistema de Numeración Maya

Los mayas idearon un sistema de base 20 con el 5 cómo base auxiliar. La unidad se representaba por un punto. Dos, tres, y cuatro puntos servían para 2, 3 y 4. El 5 era una raya horizontal, a la que seañadían los puntos necesarios para representar 6, 7, 8 y 9. Para el 10 se usaban dos rayas, y de la misma forma se continúa hasta el 20, con cuatro rayas.

Hasta aquí parece ser un sistema de base 5 aditivo, pero en realidad, considerados cada uno un solo signo, estos símbolos constituyen las cífras de un sistema de base 20, en el que hay que multiplicar el valor de cada cifra por 1, 20, 20x20, 20x20x20 ... según el lugar que ocupe, y sumar el resultado. Es por tanto un sistema posicional que se escribe a arriba abajo, empezando por el orden de magnitud mayor.

Al tener cada cifra un valor relativo según el lugar que ocupa, la presencia de un signo para el cero, con el que indicar la ausencia de unidades de algún orden, se hace imprescindible y los mayas lo usaron, aunque no parece haberles interesado el concepto de cantidad nula. Cómo los babilonios lo usaron simplemente para indicar la ausencia de otro número.
Pero los científicos mayas eran a la vez sacerdotes ocupados en la observación astronómica y para expresar los número correspondientes a las fechas usaron unas unidades de tercer orden irregulares para la base 20. Así la cifra que ocupaba el tercer lugar desde abajo se multiplicaba por 20x18=360 para completar una cifra muy próxima a la duración de un año.

El año lo consideraban dividido en 18 uinal que constaba cada uno de 20 días. Se añadían algunos festivos (uayeb) y de esta forma se conseguía que durara justo lo que una de las unidades de tercer orden del sistema numérico. Además de éste calendario solar, usaron otro de carater religioso en el que el año se divide en 20 ciclos de 13 días.
Al romperse la unidad del sistema éste se hace poco práctico para el cálculo y aunque los conocimiento astronómicos y de otro tipo fueron notables los mayas no desarrollaron una matemática más allá del calendario.

Números en la actualidad

Tipos de números
Los números más conocidos son los números naturales, que se usan para contar. Si añadimos los números negativos obtenemos los enteros. Cocientes de enteros generan los números racionales. Si incluimos todos los números que son expresables con decimales pero no con fracciones de enteros (irracionales), obtenemos los números reales; si a éstos les añadimos los números complejos, tendremos todos los números necesarios para resolver cualquier ecuación algebraica. Podemos ampliar aún más los números, si añadimos los infinitos, hiperreales y transfinitos. Entre los reales, existen números que no son soluciones de una ecuación polinomial o algebraica, que reciben el nombre de transcendentales. Ejemplos famosos de estos números son π (Pi) y el número e (base de los logaritmos naturales) los cuales están relacionados entre sí por la identidad de Euler.
Existe toda una teoría de los números, que clasifica a los números en:
* Números naturales
Número primo
Números compuestos
Números perfectos
* Números enteros
Números pares
Números impares
* Números racionales
* Números reales
Números irracionales
Números algebraicos
Números trascendentes
* Números hiperreales
* Números complejos
* Cuaterniones
* Números infinitos
* Números transfinitos
* Números negativos
* Números fundamentales: π y e


El estudio de ciertas propiedades que cumplen los números ha producido una enorme cantidad de tipos de números, la mayoría sin un interés matemático específico. A continuación se indican algunos:

Narcisista: Número de n dígitos que resulta ser igual a la suma de las potencias de orden n de sus dígitos. Ejemplo: 153 = 1³ + 5³ + 3³.
Omirp: Número primo que al invertir sus dígitos da otro número primo.
Ejemplo : 1597 y 7951 son primos.
Vampiro: Número que se obtiene a partir del producto de dos números obtenidos a partir de sus dígitos. Ejemplo: 2187 = 27 x 81.

Una vez entendido el problema de la naturaleza y la clasificación de los números, surge otro, más práctico, pero que condiciona todo lo que se va a hacer con ellos: la manera de escribirlos. El sistema que se ha impuesto universalmente es la numeración posicional, gracias al invento del cero, con una base constante.

Más Formalmente, en the concept of number, el matemático Frege realiza una definición de «número», la cual fue tomada como referencia por muchos matemáticos (entre ellos Russell Co-creador de principia mathematica.

"n es un número" es entonces la definición de que "existe un concepto F para el cual n aplica", que a su vez se ve explicado como que "n es la extensión del concepto "equinumerable con" para F", y dos conceptos son "equinumerables" si existe una relación "uno a uno" (véase que no se utiliza el símbolo 1 porque no esta definido aún) entre los elementos que lo componen (es decir, una biyección en otros terminos).


Véase también que Frege, tanto como cualquier otro matemático, se ven inhabilitados para definir al número como la expresión de una cantidad, porque la simbología matemática no hace referencia necesaria a la numerabilidad, y el hecho de "cantidad" referiría a algo numerable, mientras que números se adoptan para definir la cardinalidad de, por ejemplo, los elementos que se encuentran en el intervalo abierto (0, 1), que contiene innumerables elementos (potencia del continuo).

Peano, antes de establecer sus cinco proposiciones sobre los números naturales, explicita que supone sabida una definición (quizás debido a su "obviedad" de las palabras o conceptos "cero", "sucesor" y "número". De esta manera postula:

* "0 es un número",
* "el sucesor de todo número es un número",
* "dos números diferentes no tienen el mismo sucesor",
* "0 no es el sucesor de ningún número",
* y la propiedad inductiva.

Sin embargo, si uno define el concepto "cero" como el número 100, y el concepto "número" como "los números mayores a 100", entonces las cinco proposiciones mencionadas anteriormente aplican, no a la idea que Peano habría querido comunicar, sino a su formalización.


La definición de número se encuentra por ende no totalmente formalizada, aunque se encuentre un acuerdo mayoritario en adoptar la definición enunciada por Frege.

Ahora un video para reflexionar sobre los números en nuestras vidas.
Este video lo busque en you tube, parece que es un avance de un programa de televisión o algo por el estilo.

Qué es una Red?

El concepto de red se asocia a la interconexión de computadoras, pero no se debe olvidar que hoy en día los dispositivos que almacenan información y pueden compartirla son muchos: teléfonos celulares, pocket pcs, computadores portátiles y los viejos conocidos: faxes, impresoras, fotocopiadoras entre otros. Por ello resultaría mejor hablar no de computadoras sino de dispositivos.
Una definición más aproximada de lo que es una red en nuestro caso podría ser:
"Conjunto de dispositivos interconectados que permiten compartir recursos e información minimizar tiempos y costos en cualquier proceso"

Objetivos de las redes
1. Compartir Recursos: resulta muy usual que en salas de cómputo antiguas de algunas empresas se encuentren tantas impresoras como computadoras. Esta característica honerosa por demás, hacía que los puestos de trabajo fueran muy individualizados y aislados aunque estuvieran a pocos metros de distancia. Con una red lo que se busca es que el recurso, en este caso la impresora, pueda ser compartida por diferentes puestos de trabajo en lugar de que cada puesto tenga una. De igual manera un usuario que este a 800 kms de distancia puede ver los datos remotos como locales (se comparte un recurso como la base de datos). En términos generales la información se hace disponible en cualquier lugar.
2. Confiabilidad: la alta fiabilidad de un sistema de información puede darse al contar con fuentes alternativas de suministro. Por ejemplo todos los archivos podrían duplicarse en dos o tres máquinas, de tal manera que si una de ellas no se encuentra disponible, podría utilizarse una de las otras copias. Además, la precencia de múltiples CPU significa que si una de ellas deja de funcionar, las otras pueden encargarse de su trabajo, aunque se tenga un rendimiento global menor. Dicho en otros términos existe un respaldo cuando la información puede transmitirse por múltiples caminos y puede ser almacenada para se compartida.
3. Minimizar costos: Las computadoras pequeñas tienen una mejor relación costo / rendimiento, comparada con la ofrecida por las máquinas grandes. Estas son, a grandes rasgos, diez veces más rápidas que el mas rápido de los microprocesadores, pero su costo es miles de veces mayor. Este desequilibrio ha ocasionado que muchos diseñadores de sistemas construyan sistemas constituidos por poderosas computadoras personales, uno por usuario, con los datos guardados una o más máquinas que funcionan como servidor de archivo compartido. Otro ejemplo claro es el que ya se había comentado con las impresoras, una sola impresora de trabajo pesado resulta cinco veces más barata que 10 de desempeño mediano, con el mismo volumen de trabajo.
4. Mejoramiento de la comunicación: Una red puede proporcionar un potente medio de comunicación entre los empleados de una compañía. Con un software adecuado y que cautive, el canal de comunicación puede hacerse más eficiente, ágil y sobretodo participativo.
5. Minimizar tiempos: una empresa que cuenta con una red, puede aprovecharla para la toma de decisiones y demorarse mucho menos tiempo para determinar el destino de un proceso. Las juntas, los informes y las proyecciones pueden realizarse en tiempo real pues no hay que ir de puesto en puesto recolectando la información, sino que esta puede ser obtenida en pocos segundos, sin tener que tomarla individualmente, con una duración de horas y hasta días.

Beneficios de una Red
En una red se puede compartir la información y los recursos. Gracias a esta facilidad contamos con una serie de ventajas:
· Compartir los periféricos caros, como pueden ser las impresoras. En una red, todos los computadores pueden acceder a la misma impresora.
· Transferir datos entre los usuarios sin utilizar disquetes. La transferencia de archivos a través de la red elimina el tiempo que se pierde copiando archivos en disquete y luego en otro PC. Además, hay menos restricciones en el tamaño del archivo que se transfiere a través de la red.
· Centralizar programas informáticos clave, como son los de finanzas y contabilidad. A menudo, los usuarios tienen que acceder al mismo programa para trabajar en él simultáneamente. Un ejemplo de lo anterior sería el sistema de una oficina de reservación de tickets, en el que es importante evitar que los tickets se vendan dos veces.
· Se puede crear una copia de seguridad del archivo automáticamente. Se puede utilizar un programa informático para hacer copias de seguridad de archivos automáticamente, con lo que se ahorra tiempo y se garantiza que todo el trabajo ha quedado guardado.
En una WAN, se puede compartir información y recursos en un área geográficamente mayor. Gracias a esta facilidad contamos con una serie de ventajas:
· Enviar y recibir correo electrónico a y desde cualquier punto del globo, comunicar mensajes y avisos a mucha gente, en un sinfín de diferentes áreas, rápida y económicamente.
· Transferencia de archivos a y desde los computadores desde diferentes sitios de trabajo ubicados en diferentes puntos.
· Se puede acceder a los vastos recursos de Internet y de la Web mundial.

domingo, 13 de junio de 2010

Historia de las telecomunicaciones:


Historia de las telecomunicaciones:


* 1830, Telégrafo, Introduce conceptos de codificación (Morse, Cooke y Wheatstone)
* 1874, Telégrafo múltiple (Emile Baudot)
* 1875, Bell – Teléfono, Transmisión de voz, no requiere codificación
* 1910, Teletipo / Teleimpresor, Transmite mensajes sin operador, Cód. Baudot.
* 1950, Comienzan a aparecer los módems, como inicio de la transmisión de datos entre computadoras, pero se consolidan en los 60s y 70s para el manejo principalmente de periféricos.
* 60´s Desarrollo de lenguajes de programación, S.O., Conmutación de paquetes, transmisión satélite, comienza la unión de las telecomunicaciones e informática.
* 70´s Consolidación de la teleinformática, aparecen las primeras redes de computadores, protocolos y arquitectura de redes, primeras redes públicas de paquetes.
* 1971, Arpanet - TCP/IP.
* 1974, SNA de IBM primera arquitectura de redes, sigue DNA
* 1975, CCITT normaliza X.25, nace OSI de ISO
* 1978, Aparecen las primeras redes de àrea local, aparecen los primeros servicios de valor agregado.
* 80´s Comienzan a aparecer las redes digitales (voz, video y datos).
* 90´s Tecnología de la información, Sistemas Distribuidos, Procesamiento Distribuido, integración

Capitulo 1

1.1. Principales Tipos de cables:

En estos días la gran mayoría de las redes están conectadas por algún tipo de cableado, que actúa como medio de transmisión por donde pasan las señales entre los equipos. Hay disponibles una gran cantidad de tipos de cables para cubrir las necesidades y tamaños de las diferentes redes, desde las más pequeñas a las más grandes.

Existe una gran cantidad de tipos de cables. Algunos fabricantes de cables publican un catálogos con más de 2.000 tipos diferentes que se pueden agrupar en tres grupos principales que conectan la mayoría de las redes:

* Cable coaxial.
* Cable de par trenzado (apantallado y no apantallado).
* Cable de fibra óptica.

1.2. Cable Coaxial:

Ver Anexo 1

Hubo un tiempo donde el cable coaxial fue el más utilizado. Existían dos importantes razones para la utilización de este cable: era relativamente barato, y era ligero, flexible y sencillo de manejar.

Un cable coaxial consta de un núcleo de hilo de cobre rodeado por un aislante, un apantallamiento de metal trenzado y una cubierta externa.

El término apantallamiento hace referencia al trenzado o malla de metal (u otro material) que rodea algunos tipos de cable.

El apantallamiento protege los datos transmitidos absorbiendo el ruido, de forma que no pasan por el cable y no distorsionan los datos. Al cable que contiene una lámina aislante y una capa de apantallamiento de metal trenzado se le denomina cable apantallado doble. Para entornos que están sometidos a grandes interferencias, se encuentra disponible un apantallamiento cuádruple. Este apantallamiento consta de dos láminas aislantes, y dos capas de apantallamiento de metal trenzado,

El núcleo de un cable coaxial transporta señales electrónicas que forman los datos. Este núcleo puede ser sólido o de hilos. Si el núcleo es sólido, normalmente es de cobre.

Rodeando al núcleo hay una capa aislante dieléctrica que la separa de la malla de hilo. La malla de hilo trenzada actúa como masa, y protege al núcleo del ruido eléctrico y de la ínter modulación (la ínter modulación es la señal que sale de un hilo adyacente).

El núcleo de conducción y la malla de hilos deben estar separados uno del otro. Si llegaran a tocarse, el cable experimentaría un cortocircuito, y el ruido o las señales que se encuentren perdidas en la malla circularían por el hilo de cobre.

Un cortocircuito eléctrico ocurre cuando dos hilos de conducción o un hilo y una tierra se ponen en contacto. Este contacto causa un flujo directo de corriente (o datos) en un camino no deseado.

En el caso de una instalación eléctrica común, un cortocircuito causará el chispazo y el fundido de un fusible o del interruptor automático. Con dispositivos electrónicos que utilizan bajos voltajes, el resultado no es tan dramático, y a menudo casi no se detecta. Estos cortocircuitos de bajo voltaje generalmente causan un fallo en el dispositivo y lo habitual es que se pierdan los datos.

Una cubierta exterior no conductora (normalmente hecha de goma, Teflón o plástico) rodea todo el cable.

El cable coaxial es más resistente a interferencias y atenuación que el cable de par trenzado.

La malla de hilos protectora absorbe las señales electrónicas perdidas, de forma que no afecten a los datos que se envían a través del cable de cobre interno. Por esta razón, el cable coaxial es una buena opción para grandes distancias y para soportar de forma fiable grandes cantidades de datos con un equipamiento poco sofisticado.

1.2.1. Tipos de cable coaxial:

* Hay dos tipos de cable coaxial:
* Cable fino (Thinnet).
* Cable grueso (Thicknet).

Cable Coaxial Thinnet (Ethernet fino), usado en 10BASE2.-

El cable Thinnet es un cable coaxial flexible de unos 0,64 centímetros de grueso (0,25 pulgadas). Este tipo de cable se puede utilizar para la mayoría de los tipos de instalaciones de redes, ya que es un cable flexible y fácil de manejar.


Plenum.-

Es el espacio muerto que hay en muchas construcciones entre el falso techo y el piso de arriba; se utiliza para que circule aire frío y caliente a través del edificio. Las normas de incendios indican instrucciones muy específicas sobre el tipo de cableado que se puede mandar a través de esta zona, debido a que cualquier humo o gas en el plenum puede mezclarse con el aire que se respira en el edificio.

El cableado de tipo plenum contiene materiales especiales en su aislamiento y en 1a clavija del cable. Estos materiales están certificados como resistentes al fuego y producen una mínima cantidad de humo; esto reduce los humos químicos tóxicos.

El cable plenum se puede utilizar en espacios plenum y en sitios verticales (en una pared, por ejemplo) sin conductos. Sin embargo, el cableado plenum es más caro y menos flexible que el PVC.

Para instalar el cable de red en la oficina sería necesario consultar las normas de la zona sobre electricidad y fuego para la regulación y requerimientos específicos.

Consideraciones sobre el cable coaxial:

En la actualidad es difícil que tenga que tomar una decisión sobre cable coaxial, no obstante, considere las siguientes características del cable coaxial.

Utilice el cable coaxial si necesita un medio que pueda:

* Transmitir voz, vídeo y datos.
* Transmitir datos a distancias mayores de lo que es posible con un cableado menos caro
* Ofrecer una tecnología familiar con una seguridad de los datos aceptable.

1.5. Cable Par Trenzado

Ver Anexo 3 Ver Anexo 4

En su forma más simple, un cable de par trenzado consta de dos hilos de cobre aislados y entrelazados. Hay dos tipos de cables de par trenzado: cable de par trenzado sin apantallar (UTP) y par trenzado apantallado (STP).

Es el tipo de cable más común y se originó como solución para conectar teléfonos, terminales y ordenadores sobre el mismo cableado, ya que está habilitado para comunicación de datos permitiendo frecuencias más altas transmisión. Con anterioridad, en Europa, los sistemas de telefonía empleaban cables de pares no trenzados.

Cada cable de este tipo está compuesto por una serie de pares de cables trenzados. Los pares se trenzan para reducir la interferencia entre pares adyacentes. Normalmente una serie de pares se agrupan en una única funda de color codificado para reducir el número de cables físicos que se introducen en un conducto.

El número de pares por cable son 4, 25, 50, 100, 200 y 300. Cuando el número de pares es superior a 4 se habla de cables multipar.

A menudo se agrupan una serie de hilos de par trenzado y se encierran en un revestimiento protector para formar un cable. El número total de pares que hay en un cable puede variar. El trenzado elimina el ruido eléctrico de los pares adyacentes y de otras fuentes como motores, relés y transformadores.

1.6. Cable de par trenzado sin apantallar (UTP).-

El UTP, con la especificación 10BaseT, es el tipo más conocido de cable de par trenzado y ha sido el cableado LAN más utilizado en los últimos años. El segmento máximo de longitud de cable es de 100 metros.

El cable UTP tradicional consta de dos hilos de cobre aislados. Las especificaciones UTP dictan el número de entrelazados permitidos por pie de cable; el número de entrelazados depende del objetivo con el que se instale el cable.

1.6.1. Características del cable sin apantallar :

* Tamaño: El menor diámetro de los cables de par trenzado no blindado permite aprovechar más eficientemente las canalizaciones y los armarios de distribución. El diámetro típico de estos cables es de 0'52 m
* Peso : El poco peso de este tipo de cable con respecto a los otros tipos de cable facilita el tendido.
* Flexibilidad: La facilidad para curvar y doblar este tipo de cables permite un tendido más rápido así como el conexionado de las rosetas y las regletas.
* Instalación: Debido a la amplia difusión de este tipo de cables, existen una gran variedad de suministradores, instaladores y herramientas que abaratan la instalación y puesta en marcha.
* Integración: Los servicios soportados por este tipo de cable incluyen:
*
o Red de Area Local ISO 8802.3 (Ethernet) y ISO 8802.5 (Token Ring)
o Telefonía analógica
o Telefonía digital
o Terminales síncronos
o Terminales asíncronos
o Líneas de control y alarmas

1.6.2. Categorías de cables sin apantallar

La especificación 568A Commercial Building Wiring Standard de la Asociación de Industrias Electrónicas e Industrias de la Telecomunicación (EIA/TIA) especifica el tipo de cable UTP que se va a utilizar en una gran variedad de situaciones y construcciones. El objetivo es asegurar la coherencia de los productos para los clientes. Estos estándares definen cinco categorías de UTP:

* Categoría 1. Hace referencia al cable telefónico UTP tradicional que resulta adecuado para transmitir voz, pero no datos. La mayoría de los cables telefónicos instalados antes de 1983 eran cables de Categoría 1.
* Categoría 2. Esta categoría certifica el cable UTP para transmisión de datos de hasta 4 megabits por segundo (mbps), Este cable consta de cuatro pares trenzados de hilo de cobre.
* Categoría 3. Esta categoría certifica el cable UTP para transmisión de datos de hasta 16 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre con tres entrelazados por pie.
* Categoría 4. Esta categoría certifica el cable UTP para transmisión de datos de hasta 20 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre.
* Categoría 5. Esta categoría certifica el cable UTP para transmisión de datos de hasta 100 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre.
* Categoría 5a. También conocida como Categoría 5+ ó Cat5e. Ofrece mejores prestaciones que el estándar de Categoría 5. Para ello se deben cumplir especificaciones tales como una atenuación al ratio crosstalk (ARC) de 10 dB a 155 Mhz y 4 pares para la comprobación del Power Sum NEXT. Este estándar todavía no está aprobado
* Nivel 7. Proporciona al menos el doble de ancho de banda que la Categoría 5 y la capacidad de soportar Gigabit Ethernet a 100 m. El ARC mínimo de 10 dB debe alcanzarse a 200 Mhz y el cableado debe soportar pruebas de Power Sum NEXT, más estrictas que las de los cables de Categoría 5 Avanzada.

La mayoría de los sistemas telefónicos utilizan uno de los tipos de UTP. De hecho, una razón por la que UTP es tan conocido es debido a que muchas construcciones están preparadas para sistemas telefónicos de par trenzado. Como parte del proceso previo al cableado, se instala UTP extra para cumplir las necesidades de cableado futuro.

Si el cable de par trenzado preinstalado es de un nivel suficiente para soportar la transmisión de datos, se puede utilizar para una red de equipos. Sin embargo, hay que tener mucho cuidado, porque el hilo telefónico común podría no tener entrelazados y otras características eléctricas necesarias para garantizar la seguridad y nítida transmisión de los datos del equipo.

La intermodulación es un problema posible que puede darse con todos los tipos de cableado (la intermodulación se define como aquellas señales de una línea que interfieren con las señales de otra línea).

UTP es particularmente susceptible a la intermodulación, pero cuanto mayor sea el número de entrelazados por pie de cable, mayor será la protección contra las interferencias.

1.7 Cable de par trenzado apantallado (STP).-

El cable STP utiliza una envoltura con cobre trenzado, más protectora y de mayor calidad que la usada en el cable UTP. STP también utiliza una lámina rodeando cada uno de los pares de hilos. Esto ofrece un excelente apantallamiento en los STP para proteger los datos transmitidos de intermodulaciones exteriores, lo que permite soportar mayores tasas de transmisión que los UTP a distancias mayores.

1.7.1. Componentes del cable de par trenzado.-

Aunque hayamos definido el cable de par trenzado por el número de hilos y su posibilidad de transmitir datos, son necesarios una serie de componentes adicionales para completar su instalación. Al igual que sucede con el cable telefónico, el cable de red de par trenzado necesita unos conectores y otro hardware para asegurar una correcta instalación.

1.7.2. Elementos de conexión.-

El cable de par trenzado utiliza conectores telefónicos RJ-45 para conectar a un equipo. Éstos son similares a los conectores telefónicas RJ11. Aunque los conectores RJ-11 y RJ-45 parezcan iguales a primera vista, hay diferencias importantes entre ellos.

El conector RJ-45 contiene ocho conexiones de cable, mientras que el RJ-11 sólo contiene cuatro.

Existe una serie de componentes que ayudan a organizar las grandes instalaciones UTP y a facilitar su manejo.

* Armarios y racks de distribución . Los armarios y los racks de distribución pueden crear más sitio para los cables en aquellos lugares donde no hay mucho espacio libre en el suelo. Su uso ayuda a organizar una red que tiene muchas conexiones.
* Paneles de conexiones ampliables. Existen diferentes versiones que admiten hasta 96 puertos y alcanzan velocidades de transmisión de hasta 100 Mbps.
* Clavijas. Estas clavijas RJ-45 dobles o simples se conectan en paneles de conexiones y placas de pared y alcanzan velocidades de datos de hasta 100 Mbps.
* Placas de pared. Éstas permiten dos o más enganches.

1.8. Consideraciones sobre el cableado de par trenzado

El cable de par trenzado se utiliza si:

* La LAN tiene una limitación de presupuesto.
* Se desea una instalación relativamente sencilla, donde las conexiones de los equipos sean simples.

No se utiliza el cable de par trenzado si:

* La LAN necesita un gran nivel de seguridad y se debe estar absolutamente seguro de la integridad de los datos.
* Los datos se deben transmitir a largas distancias y a altas velocidades.

1.9. Diferencia entre las Categorías de cable UTP.-

El estándar TIA/EIA 568 especifica el cable le Categoría 5 como un medio para la transmisión de datos a frecuencias de hasta 100 MHz. El Modo de Transmisión Asíncrona (Asynchronous Transfer Mode ATM), trabaja a 155 MHz. La Gigabit Ethernet a 1 GHz.

La necesidad de incrementar el ancho de banda nunca cesa, cuanto más se tenga, más se necesita. Las aplicaciones cada vez se vuelven más complejas, y los ficheros cada vez son más grandes. A medida que su red se vaya congestionando con más datos, la velocidad se va relentizando y no volverá a ser rápida nunca más.

Las buenas noticias son que la próxima generación de cableado está en marcha. Sin embargo, tendrá que tener cuidado con el cableado que esté instalado hoy, y asegurarse que cumplirá con sus necesidades futuras.

Categoría 5.-

La TIA/EIA 568A especifica solamente las Categorías para los cables de pares trenzados sin apantallar (UTP). Cada una se basa en la capacidad del cable para soportar prestaciones máximas y mínimas.

Hasta hace poco, la Categoría 5 era el grado superior especificado por el estándar TIA/EIA.

Se definió para ser capaz de soportar velocidades de red de hasta 100 Mbps en transmisiones de voz/datos a frecuencias de hasta100 MHz. Las designaciones de Categoría están determinadas por las prestaciones UTP.

El cable de Categoría 5 a100 MHz, debe tener el NEXT de 32 dB/304,8 mts. y una gama de atenuación de 67dB/304,8 mts, Para cumplir con el estándar, los cables deben cumplir solamente las mínimos estipulados, Con cable de Categoría 5 debidamente instalado, podrá esperar alcanzar las máximas prestaciones, las cuales, de acuerdo con los estándares, alcanzarán la máxima velocidad de traspaso de Mbps.

Categoría 5a.-

La principal diferencia entre la Categoría 5 (568A) y Categoría 5a (568A-5) es que algunas de las especificaciones han sido realizadas de forma más estricta en la versión más avanzada. Ambas trabajan a frecuencias de 100 MHz. Pero la Categoría 5e cumple las siguientes especificaciones: NEXT: 35 dB; PS-NEXT: 32 dB, ELFEXT: 23.8 dB; PS-ELFEXT: 20.8 dB, Pérdida por Retorno: 20.1 dB, y Retardo: 45 ns, Con estas mejoras, podrá tener transmisiones Ethernet con 4 pares, sin problemas, full-duplex, sobre cable UTP.

En el futuro, la mayoría de las instalaciones requerirán cableado de Categoría 5e así como sus componentes.

Categoría 6 y posteriores.-

Ahora ya puede obtener un cableado de Categoría 6, aunque el estándar no ha sido todavía creado. Pero los equipos de trabajo que realizan los estándares están trabajando en ello. La Categoría 6 espera soportar frecuencias de 250 MHz, dos veces y media más que la Categoría 5.

En un futuro cercano, la TIA/EIA está estudiando el estándar para la Categoría 7, para un ancho de banda de hasta 600 MHz. La Categoría 7, usará un nuevo y aún no determinado tipo de conector.

1.10 .Par Trenzado es Uniforme.-

Cada uno de los pares es trenzado uniformemente durante su creación. Esto elimina la mayoría de las interferencias entre cables y además protege al conjunto de los cables de interferencias exteriores.

Se realiza un blindaje global de todos los pares mediante una lámina externa blindada. Esta técnica permite tener características similares al cable blindado con unos costes por metro ligeramente inferior.

Ver Anexo 5 Ver Anexo 6

1.11. Fibra Óptica:

Ver Anexo 7

La fibra óptica permite la transmisión de señales luminosas y es insensible a interferencias electromagnéticas externas. Cuando la señal supera frecuencias de 10¹º Hz hablamos de frecuencias ópticas. Los medios conductores metálicos son incapaces de soportar estas frecuencias tan elevadas y son necesarios medios de transmisión ópticos.

Por otra parte, la luz ambiental es una mezcla de señales de muchas frecuencias distintas, por lo que no es una buena fuente para ser utilizada en las transmisión de datos. Son necesarias fuentes especializadas:

* Fuentes láser. a partir de la década de los sesenta se descubre el láser, una fuente luminosa de alta coherencia, es decir, que produce luz de una única frecuencia y toda la emisión se produce en fase.
* Diodos láser. es una fuente semiconductora de emisión de láser de bajo precio.
* Diodos LED. Son semiconductores que producen luz cuando son excitados eléctricamente.

La composión del cable de fibra óptica consta de un núcleo, un revestimiento y una cubierta externa protectora.

El núcleo es el conductor de la señal luminosa y su atenuación es despreciable. La señal es conducida por el interior de éste núcleo fibroso, sin poder escapar de él debido a las reflexiones internas y totales que se producen, impidiendo tanto el escape de energía hacia el exterio como la adicción de nuevas señales externas.

Actualmente se utilizan tres tipos de fibras ópticas para la transmisión de datos:

1. Fibra multimodo de índice escalonado. Permite transmisiones de hasta 35 MHz.
2. Fibra monomodo. Permite la transmisión de señales con ancho de banda hasta 2 GHz.
3. Fibra multimodo de índice gradual. Permite transmisiones de hasta 500 MHz.

Ver Anexo 8

Se han llegado a efectuar transmisiones de decenas de miles de llamadas telefónicas a través de una sola fibra, debido a su gran ancho de banda.

Otra ventaja es la gran fiabilidad, su tasa de error es mínima. Su peso y diámetro la hacen ideal frente a cables de pares o coaxiales. Normalmente se encuentra instalada en grupos, en forma de mangueras, con un núcleo metálico que les sirve de protección y soporte frente a las tensiones producidas.

Su principal inconveniente es la dificultad de realizar una buena conexión de distintas fibras con el fin de evitar reflexiones de la señal, así como su fragilidad.


Muy pocos conceptos en el mundo de la interconexión actual son tan confusos como Redes Virtuales. Las Redes Virtuales son muy nuevas, y su uso a nivel mundial esta sólo comenzando. Muchos fabricantes, en el intento de tomar ventaja en el interés que se ha despertado en ellas, han tergiversado el concepto de lo que realmente es una Red Virtual. Existen diferentes maneras de implementar redes virtuales a través de productos conmutados (Switches), cada una con diferentes capacidades y limitaciones.

La cantidad de datos que es transportada mediante las redes de área local (LAN) ha crecido firme y rápidamente. Esto se debe básicamente al crecimiento de las aplicaciones existentes, hoy en día casi todas las personas tienen un Computador en su escritorio, y casi todos están conectados en red. Esto difiere mucho de la situación presentada hace unos pocos años, inclusive en redes extensas. Pero dos nuevas tendencias, en hardware y software, han acelerado e incrementado el uso de la red.

Los primeros PC's y Macintosh revolucionaron tanto la computación como la interconexión en redes. Actualmente, en vez de que cada usuario utilice un terminal "tonto", conectado a un "inteligente" minicomputador o mainframe, se tienen computadores de escritorio que comparten la inteligencia de los sistemas. Las redes anteriormente transportaban imágenes desde los computadores grandes hacia los terminales, y señales de mandatos o instrucciones desde los terminales hacia el Computador central. Esto cambio radicalmente con la estaciones de trabajo inteligentes. Ahora, existe necesidad de mover archivos, y los antiguos enlaces de 9.6 Kbps ya no son lo suficientemente rápidos. Ethernet y Token Ring fueron presionadas a prestar servicio para mover archivos de programas, archivos de impresión y compartición de recursos.

Pero esas antiguas estaciones de trabajo estaban limitadas en el procesamiento y manejo de información debido a su poca capacidad y rendimiento (capacidad de disco, memoria, MIPS, flujo de la red, etc.). Las computadoras de escritorio de hoy en día son 100 veces más poderosas. Como resultado, cada máquina es capaz de colocar una carga mayor en la red a la cual esta conectada.

Inclusive hasta después de la "Revolución de los PC's" que remplazó los terminales por computadores de escritorio, la naturaleza esencial de los datos permanecía sin cambio. Excepto por algunas aplicaciones científicas y de diseño, la gran mayoría de la información que se transportaba a través de la red era textual. Esto limitaba severamente la cantidad de información que necesitaba ser movida.

Las aplicaciones de hoy transfieren grandes cantidades de información gráfica. Las operaciones de manufactura utilizan gráficos para guiar a los trabajadores interactivamente en nuevos procesos. Las firmas de abogados y compañías de seguro están digitalizando grandes volúmenes de documentos, utilizando en muchos casos bitmaps para preservar documentos hechos a mano. Una amplia variedad de procesos médicos también usan imágenes para guiar a radiólogos, cirujanos y otros especialistas en sus diagnósticos y procedimientos. Eventualmente, se incluye video a través de la LAN, aplicación que requiere aún anchos de banda mayores.

Los Switches LAN hacen posible transmitir cantidades mayores de data de lo que es posible transmitir con concentradores y Routers. Segmentos Ethernet y Token Ring pueden ser dedicados a dispositivos individuales, ó a pequeños grupos de dispositivos.

Pero los Switches LAN alcanzan sus niveles de alto performance utilizando procesos simplificados. Son básicamente Bridges, no ruteadores. Ellos conmutan o "switchean" a través de la segunda capa las direcciones de destino/origen ("MAC"), que es mucho más simple que rutear. Los Routers deben manejar una variedad de protocolos (selección de rutas, resolución de direcciones, transferencia de paquetes Internet, control de mensajes Internet, etc.) sólo para mover información en una sola "stack" de protocolo, como TCP/IP por ejemplo. Muchas redes combinan una variedad de stacks, y cada una de ellas necesitan un completo set de protocolos.

No hay nada nuevo en el uso de Bridges para construir redes locales. Las primeras LANs fueron creadas con Bridges sencillos. La diferencia radica en que hoy por hoy el hardware a avanzado significativamente, y enormes volúmenes de tramas pueden ser manejadas en un simple Switch.

Todas las redes "puenteadas", o interconectadas a través de Bridges, tienen una limitación básica: los Bridges, dado que ellos no participan en los protocolos de la capa tres (modelo OSI), la cual usa MAC broadcast (ó envío de paquetes a direcciones específicas), sino que envía paquetes a todos los puertos ó direcciones. Aunque el tráfico es aislado para los puertos específicos que envían y reciben esos paquetes, deben ser enviados a todas partes.

En la mayoría de las redes de mediano tamaño, este "flujo" no tiene mayor impacto en los otros tráficos, no hay más que unos cuantos "broadcasts" y las direcciones MAC se aprenden rápidamente, pero en una red bastante grande ó en una que exista niveles inusuales de broadcasts, es posible que este flujo impacte en el trafico punto a punto de las estaciones. Cuando esto pasa es importante mantener estos broadcast aislados en lo que se llama "Dominios de Broadcast".

Muchas de las redes locales en estos últimos diez años han estado basadas en concentradores y Routers. Las Estaciones de Trabajos, Servidores y otros dispositivos están conectados a los concentradores, los concentradores están interconectados con los Routers. En este tipo de Red Local los dominios de Broadcast se implementan de una forma muy simple y automática, cada concentrador (concentrador segmentado o anillo) es un dominio de broadcast.

Los Routers son esencialmente dispositivos para interconectar dominios de broadcast. Pero con redes basadas en Switches vamos a necesitar proveer esta función de otra forma.

3.2. Las Redes Virtuales sobrepasan limitaciones

Que es lo que hacen las redes virtuales (vLANs)?. Una red virtual es un dominio de broadcast. Como en un concentrador, todos los dispositivos en una red virtual ve todos los broadcast así como también todas las tramas con dirección de destino desconocida, sólo que los broadcast y tramas desconocidas son originadas dentro de esta red virtual.

Esto no es nada nuevo, es exactamente la misma técnica usada en las redes LAN basadas en concentradores y Routers. Con los concentradores y Routers, las tramas son regeneradas dentro del concentrador y enrutadas entre los concentradores. Con las redes virtuales, las tramas son swichadas (puenteadas: "bridged") dentro de una red virtual y enrutada entre redes virtuales. De manera tal que una red virtual no es más que una mejor y más flexible versión de las prácticas de Networking.

Lo nuevo de este tipo de dominio de broadcast es que no está restringido a que la misma localidad física de la red. Esto es importante, ya que es importante recordar que el Switching en mas simple que el enrutamiento, y por lo tanto más rápido. Para la extender el tráfico en la red local puede ser en base a switcheo entre dispositivos en vez de enrutamiento, y por lo tanto puede moverse mucho más rápidamente. Desafortunadamente para redes basadas en concentradores/enrutadores todos los dispositivos de red necesitan estar conectados y a veces todo el día y a menudo en diferentes partes del edificio, o en otro edificio en el Campus o en una red metropolitana reduciendo y desperdiciando ancho de banda. Las redes virtuales resuelven este problema. Un dominio de broadcast en una buena implementación de red virtual puede desplegarse a un edificio, Campus o ciudad. De tal manera que la necesidad de enrutamiento sea minimizada y el tráfico en la red se mueva mucho más rápidamente.

3.3. Beneficios adicionales que brindan las redes virtuales

Los Routers utilizan la capa tres del modelo OSI para mover tráfico en la red local (LAN). Cada capa contiene campos los cuales identifica el dominio de broadcast en el cual el destino puede ser encontrado (Dirección de red: 'Network Address'). Esas direcciones están asignadas por un administrador de red, y son generalmente registrada dentro de los archivos de configuración de las estaciones de red. En una red basada en concentradores y enrutadores la dirección de red identifica un segmento de red (Ethernet o Token Ring).

Desafortunadamente, si el dispositivo o estación de red es movida de un concentrador a otro, la dirección de red ya no es válida y alguien de grupo de redes debe ir a la estación de trabajo y corregir los archivos de configuración. Esto no es demasiado trabajo si pasa pocas veces, pero en una red de gran tamaño con un alto porcentaje de estaciones moviéndose cada año el proceso puede comer una gran cantidad de tiempo, y hasta que la actualización no se realice, la estación de trabajo no puede comunicarse.

Una característica de una buena red Virtual elimina este problema. Una estación de trabajo o servidor permanece en la misma red virtual automáticamente y no importa donde y en que parte de la red esté conectada(o).

Teóricamente, las direcciones de redes pueden ser asignadas en cualquier forma que el administrador seleccione. Desafortunadamente esa no es una práctica en muchas redes hoy en día. La razón es Internet. En orden de mezclar una red privada con Internet, es necesario restringir los números de red a aquellos los que hallan sido asignados por las autoridades que se encargan de administrar los números IP. El explosivo crecimiento de esta red mundial ha agotado un largo porcentaje de los posibles números de red, y por ende las organizaciones están restringidas de ellos.

Hasta la extensión de la implementacion de la próxima generación de IP, las redes virtuales puede ayudar bastante en reducir el desperdicio de números de redes clase B y C. Las redes virtuales hacen posible el uso limitado de direcciones de redes muy eficientemente. En una esquema concentrador/Router, cada segmento o anillo tiene su propio numero de subred, de tal forma que el Router puede mover tráfico entre cada una de ellas. En una red virtual cualquier numero de segmentos o anillos pueden ser combinados en una sola red virtual de tal forma que ninguna dirección sea desperdiciada.

Ver anexo 19

3.4. Puntos De Direccionamiento De Las Redes Virtuales

Como una nueva tecnología, las redes virtuales están cambiando rápidamente. Algunos fabricantes ofrecen un simple y relativo conjunto de características mientras otras implementaciones son bastantes poderosas. Es importante entender las aplicaciones de las redes virtuales para poder apreciar las diferencias entre ellas.

3.5. Múltiples tipos de direcciones MAC.

Hay que recordar que el propósito básico de migrar a una red Switchada es incrementar la capacidad de tráfico. Una vía fundamental para realizar esto es dividiendo la red entre pequeño segmentos o anillos y por último switchar cada dispositivo en su propio segmento. Si todas las comunicaciones entre estaciones de red fuesen peer-to-peer, esta "micro-segmentación" podría proveer una ganancia significante de rendimiento. De cualquier manera, aplicaciones reales tienden a tener uno ó mas recursos centrales, los cuales son accesados por un gran número de estaciones de trabajo. Estos recursos pueden ser servidores de archivo, servidores de aplicaciones, mainframes o Routers. Si la velocidad de acceso para los recursos centrales no es mayor que las de las estaciones de trabajo, se crea un "cuello de botella".

Para resolver esto, las redes swichadas modernas están migrando a estructuras que permitan a los recursos centrales tener velocidades de acceso mayores que las estaciones de trabajo. Por ejemplo: estaciones de trabajo utilizando Ethernet 10 Mbps y Servidores a 100 Mbps; estaciones de trabajo Token Ring 16 Mbps y Servidores FDDI 100 Mbps; y estaciones Ethernet o Token Ring conectadas a Servidores basados en ATM operando a 155 Mbps.


En cuento nacemos, se nos separa de nuestras madres, rompemos el cordón umbilical que nos une físicamente y quedamos ya desde entonces, expuestos a los más oscuros peligros del mundo exterior. Así quedan las empresas que deciden romper con los cables que los atan a las paredes, expuestos sus datos en el aire, si saber realmente que pueden estar divulgando literalmente a los cuatro vientos toda la información con la que cuentan.

"Esnifar" o "pinchar" la red wireless es casi trivial y se puede tener acceso libre a muchos datos. Al ser una estructura relativamente nueva, su configuración provoca muchos despistes de los que se aprovechan los llamados hackers, que luego, con razón, podrán tachar al administrador de incompetente. Como veremos, esto no es necesario.

Las ondas de radio viajan a través de las paredes, se nos escapan y distribuyen más allá del ordenador al que van destinadas. Esta propiedad supone el problema esencial para este tipo de redes, aparte de otros factores que son más difíciles de controlar o detectar (interferencias, distancia, inestabilidad atmosférica...).Con un escáner de frecuencia que suele costar entre 100 y 200 euros, cualquiera puede acceder a una red privada. Normalmente, este tipo de intrusión se realiza con un simple portátil equipado con una tarjeta WNIC (Wireless Network Interface Cards) del tipo PCMCIA y un software que busque automáticamente puertas de enlace o nodos de acceso válidos. Tan fácil como ejecutar un programa y esperar mientras te mueves por la ciudad. A esta técnica de búsqueda de nodos de acceso wireless se la conoce por varios nombres: warchalking, wardriving o stumbling. El wardriving cuenta cada vez con más adeptos que publican en diversas páginas web aquellos puntos de acceso que encuentran sin protección. Si se consigue una dirección de IP válida para una red, no sólo se podrán absorber datos personales, sino que probablemente, como cualquier otro usuario legítimo de esa red, se tendrá acceso gratuito y anónimo a Internet.

Y para muestra un botón. Hispasec proporcionaba la noticia: Un estudio realizado por Hewlett-Packard demuestra la penosa situación de seguridad que sufren las redes inalámbricas en Madrid (y por extensión las españolas). En concreto, dos terceras partes de la red se encontraban desprotegidas ante los ataques más básicos.

Como si de un test de intrusión a nivel general se tratara (de ellos ya he hablado en otro artículo) los investigadores de HP realizaron un recorrido por las calles con un vehículo, con la única compañía de un ordenador portátil con tarjeta Wi-Fi, un software de detección de redes y una antena omnidireccional. Con este método pudieron detectar cerca de 7.500 ordenadores y sistemas conectados a 518 puntos de acceso inalámbrico. El diez por ciento pertenecía a grandes empresas.

Orthus, una organización del Reino Unido dedicada a la información sobre seguridad, realizó un estudio en 2002 sobre la seguridad de las redes inalámbricas en Europa. Orthus, con un equipo que consistía en un ordenador portátil equipado con una tarjeta 'wireless' y un software de detección de red aérea, comprobó que de las 1689 redes accesibles desde las calles de siete de las más importantes ciudades europeas, sólo el 31% tenía habilitado WEP (Wired Equivalent Privacy, el equivalente a la privacidad con redes físicas) para cifrar su tráfico. El 57% mantenía su red con los valores por defecto que vienen de fábrica, y el 43 % cometía otros grandes errores que hacían muy fácil la detección e interceptación del tráfico, como por ejemplo, habilitar DHCP (la posibilidad de recibir direcciones IP dinámicas en tiempo real), lo que posibilita a los hackers maliciosos el robo de las direcciones, tomar "prestado" ancho de banda o montar ataques a terceros a través de esa red.

Pero, aunque estos datos sean de hace más de un año, parece que no aprenden la lección. En Irlanda del Norte, Kevin Curran, catedrático de la Universidad del Ulster advertía hace algunas semanas del dramático estado de las redes wireless en Londonderry, una pequeña ciudad en Derry, Belfast. En esta localidad, pudieron entrar en una tarde en 15 empresas distintas, y descubrieron que, con poco esfuerzo, podrían haber violado la seguridad de otras cinco. Lo que necesitaron, una vez más, fue un equipo casero, no demasiado caro, accesible a cualquiera que desee hacer una inversión mediana en un ordenador. "No había ni una sola red bien protegida" sentenció Curran para terminar.

Las redes Wireless se imponen con fuerza, pero pocos se preocupan de securizarlas convenientemente. EL propio estándar ofrece ciertos problemas de diseño. El protocolo 802.11b, o Wi-Fi (Wireless Fidelity), es un estándar desarrollado por la Wireless Ethernet Compatibility Alliance, que une a más de cien empresas como Intel, Cisco, IBM o Microsoft. Su éxito radica en su velocidad, 11 Mbps, y en que usa una frecuencia que no necesita licencia, 2,4 GHz. El IEEE (Institute of Electrical and Electronics Engineers) ya ha definido el nuevo estándar 802.11i, una versión mejorada del que ya deben seguir todas las redes inalámbricas. Reparará los agujeros de seguridad existentes en la norma actual 802.11, pero los productos que lo implementen no se distribuirán hasta dentro de aproximadamente un año.

Las telecomunicaciones


Historia de Las telecomunicaciones
Las telecomunicaciones, comienzan en la primera mitad del siglo XIX con el telégrafo eléctrico, que permitió el enviar mensajes cuyo contenido eran letras y números. A esta invención se le hicieron dos notables mejorías: la adición, por parte de Charles Wheatstone, de una cinta perforada para poder recibir mensajes sin que un operador estuviera presente, y la capacidad de enviar varios mensajes por la misma línea, que luego se llamó telégrafo múltiple, añadida por Emile Baudot.
Más tarde se desarrolló el teléfono, con el que fue posible comunicarse utilizando la voz, y posteriormente, la revolución de la comunicación inalámbrica: las ondas de radio.
A principios del siglo XX aparece el teletipo que, utilizando el código Baudot, permitía enviar texto en algo parecido a una máquina de escribir y también recibir texto, que era impreso por tipos movidos por relés.
El término telecomunicación fue definido por primera vez en la reunión conjunta de la XIII Conferencia de la UTI (Unión Telegráfica Internacional) y la III de la URI (Unión Radiotelegráfica Internacional) que se inició en Madrid el día 3 de septiembre de 1932. La definición entonces aprobada del término fue: "Telecomunicación es toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos".
El siguiente artefacto revolucionario en las telecomunicaciones fue el módem que hizo posible la transmisión de datos entre computadoras y otros dispositivos. En los años 60 comienza a ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de comunicación y las redes de conmutación de paquetes.
La década siguiente se caracterizó por la aparición de las redes de computadoras y los protocolos y arquitecturas que servirían de base para las telecomunicaciones modernas (en estos años aparece la ARPANET, que dio origen a la Internet). También en estos años comienza el auge de la normalización de las redes de datos: el CCITT trabaja en la normalización de las redes de conmutación de circuitos y de conmutación de paquetes y la Organización Internacional para la Estandarización crea el modelo OSI. A finales de los años setenta aparecen las redes de área local o LAN.
En los años 1980, cuando los ordenadores personales se volvieron populares, aparecen las redes digitales. En la última década del siglo XX aparece Internet, que se expandió enormemente, ayudada por la expansión de la fibra óptica; y a principios del siglo XXI se están viviendo los comienzos de la interconexión total a la que convergen las telecomunicaciones, a través de todo tipo de dispositivos que son cada vez más rápidos, más compactos, más poderosos y multifuncionales, y también de nuevas tecnologías de comunicación inalámbrica como las redes inalámbricas.

sábado, 12 de junio de 2010

LAN


¿Qué es una red LAN? - Definición de LAN

LAN son las siglas de Local Area Network, Red de área local. Una LAN es una red que conecta los ordenadores en un área relativamente pequeña y predeterminada (como una habitación, un edificio, o un conjunto de edificios).

Las redes LAN se pueden conectar entre ellas a través de líneas telefónicas y ondas de radio. Un sistema de redes LAN conectadas de esta forma se llama una WAN, siglas del inglés de wide-area network, Red de area ancha.

Las estaciones de trabajo y los ordenadores personales en oficinas normalmente están conectados en una red LAN, lo que permite que los usuarios envíen o reciban archivos y compartan el acceso a los archivos y a los datos. Cada ordenador conectado a una LAN se llama un nodo.

Cada nodo (ordenador individual) en un LAN tiene su propia CPU con la cual ejecuta programas, pero también puede tener acceso a los datos y a los dispositivos en cualquier parte en la LAN. Esto significa que muchos usuarios pueden compartir dispositivos caros, como impresoras laser, así como datos. Los usuarios pueden también utilizar la LAN para comunicarse entre ellos, enviando E-mail o chateando.

Historia de Internet

La historia de Internet

Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos.

Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.
Orígenes de Internet

La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).

El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.

En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.

Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.

A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.

Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).

En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz).

El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6).

A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .

El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ).

Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red.

Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.

Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.

En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico.
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.

En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.
Conceptos iniciales sobre Internetting

La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.

Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes.

Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.

Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).

En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.

No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.

Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.

Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s.

Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.