Introducción
Al
iniciar este trabajo lo hogo con el objetivo de adquirir los conocimientos
necesarios sobre los distintos dispositivos de salida de un computador.
A continuación
describiremos cada uno de estos dispositivos, su evolución y función de cada
uno.
Historia de los monitores
El monitor es el
principal periférico de salida de una computadora. Estos se conectan a través
de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo.
La imagen que podemos observar en los monitores está formada por una
matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es
denominado como un píxel.
Clasificación
según estándares de monitores
Según los estándares de
monitores se pueden clasificar en varias categorías. Todos han ido
evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y
mejorar la calidad de las imágenes.
Monitores
MDA:
Este tipo de monitores
se caracterizaban por tener un único color principalmente verde. El mismo
creaba irritación en los ojos de sus usuarios.
Características:
- Sin modo gráfico.
- Resolución 720_350 píxeles.
- Soporte de texto monocromático.
- No soporta gráfico ni colores.
- La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
- Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.
Monitor
CGA:
Los monitores CGA por
sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en
Color” en español. Este tipo de monitores fueron comercializados a partir del
año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un
estándar de IBM.
A pesar del lanzamiento
de este nuevo monitor los compradores de PC seguían optando por los monitores
MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia
entre ellos. CGA fue el primero en contener sistema gráfico a color.
Características:
- Resoluciones 160_200, 320×200, 640×200 píxeles.
- Soporte de gráfico a color.
- Diseñado principalmente para juegos de computadoras.
- La tarjeta gráfica contenía 16 KB de memoria de vídeo.
Monitor
EGA:
Por sus siglas en inglés
“Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la
visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una
mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después
también sería sustituido por un monitor de mayores características.
Características:
- Resolución de 640_350 píxeles.
- Soporte para 16 colores.
- La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.
Monitor
VGA:
Los monitores VGA por
sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A
partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban
a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.
Por el desarrollo
alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores
anteriores no son compatibles a los VGA, estos incorporan señales analógicas.
Características:
Características:
- Soporte de 720×400 píxeles en modo texto.
- Soporte de 640×480 píxeles en modo gráfico con 16 colores.
- Soporte de 320×200 píxeles en modo gráfico con 256 colores.
- Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor
SVGA:
SVGA denominado por sus
siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper
VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar
incompatibilidades y crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en
1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar
cuenta con varias versiones, los cuales soportan diferentes resoluciones.
Características:
Características:
- Resolución de 800×600, 1024_768 píxeles y superiores.
- Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.
Clasificación
según tecnología de monitores
En cuanto al tipo de
tecnología los monitores se pueden clasificar en varios aspectos. Estas
evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de
energía, tamaño y por brindar un nuevo producto en el mercado.
Monitores
CRT:Está basado en un Tubo de
Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue
desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente
en televisores, ordenadores, entre otros. Para lograr la calidad que hoy
cuentan, estos pasaron por diferentes modificaciones y que en la actualidad
también se realizan.
Funcionamiento:
Dibuja una imagen
barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una
línea por vez. La amplitud de dicha señal en el tiempo representa el brillo
instantáneo en ese punto de la pantalla.
Una amplitud nula,
indica que el punto de la pantalla que se marca en ese instante no tendrá
representando un píxel negro. Una amplitud máxima determina que ese punto
tendrá el máximo brillo.
Ventajas:
- Excelente calidad de imagen (definición, contraste, luminosidad).
- Económico.
- Tecnología robusta.
- Resolución de alta calidad.
Desventajas:
- Presenta parpadeo por el refrescado de imagen.
- Consumo de energía.
- Generación de calor.
- Generación de radiaciones eléctricas y magnéticas.
- Alto peso y tamaño.
Pantallas
LCD:
A este tipo de
tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en
inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en
español. Este dispositivo fue inventado por Jack Janning.
Estas pantallas son
incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.
Funcionamiento:
El funcionamiento de
estas pantallas se fundamenta en sustancias que comparten las propiedades de
sólidos y líquidos a la vez.
Cuando un rayo de luz
atraviesa una partícula de estas sustancias tiene necesariamente que seguir el
espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal
sólido pero a cada una de estas partículas se le puede aplicar una corriente
eléctrica que cambie su polarización dejando pasar la luz o no.
Una pantalla LCD esta
formada por 2 filtros polarizados colocados perpendicularmente de manera que al
aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color
es necesario aplicar tres filtros más para cada uno de los colores básicos
rojo, verde y azul.
Para la reproducción de
varias tonalidades de color se deben aplicar diferentes niveles de brillo
intermedios entre luz y no luz lo cual se consigue con variaciones en el
voltaje que se aplica a los filtros.
Ventajas:
- Poco peso y tamaño.
- Buena calidad de colores.
- No contiene parpadeo.
- Poco consume de energía.
- Poca generación de calor.
- No genera radiaciones eléctricas y magnéticas.
Desventajas:
- Alto costo.
- Angulo limitado de visibilidad.
- Brillo limitado.
- Bajo tiempo de respuesta de píxeles.
- Contiene mercurio.
Pantallas
Plasma:
La pantalla de plasma
fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene
Slottow.
Originalmente los
paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de
plasma de color. Este tipo de pantalla entre sus principales ventajas se
encuentran una la mayor resolución y ángulo de visibilidad.
Funcionamiento:
El principio de
funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces
fluorescentes de colores para conformar una imagen. Las pantallas de plasma
funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un
pequeño foco coloreado.
Cada uno de los píxeles
que integran la pantalla está formado por una pequeña celda estanca que
contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia
de potencial entre los electrodos de la celda, dicho gas pasa al estado de
plasma.
El gas así cargado emite
radiación ultravioleta (UV) que golpea y excita el material fosforescente que
recubre el interior de la celda. Cuando el material fosforescente regresa a su
estado energético natural, emite luz visible.
Ventajas:
- Excelente brillo.
- Alta resolución.
- Amplio ángulo de visión.
- No contiene mercurio.
- Tamaño de pantalla elevado.
Desventajas:
- Vida útil corta.
- Coste de fabricación elevado, superior a los LCD.
- Consumo de electricidad elevado.
- Poca pureza del color.
- Consumo energético y emisión de calor elevada.
¿Qué
es la resolución de pantalla?
Se denomina al número de
píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla.
Viene dada por el producto de las columnas (“X”), el cual se coloca al
principio y el número de filas (“Y”) con el que se obtiene una razón. Por
ejemplo podemos encontrar:
La primera impresora de alta velocidad llamada UNIVAC High Speed Printer (1953) diseñada por Remington-Rand para ser utilizada es un ordenador UNIVAC la cual estaba compuesta de cuatro gabinetes, una fuente de alimentación, la máquina de impresión, un dispositivo de control y la comprobación, y un lector de cinta. Esta impresora de cinta alimentada produce seiscientas líneas de texto por minuto.
Centronics Model 101 (1970)
Los monitores han
evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar
resoluciones mayores, con alta calidad de colores, ha llevado día a día a su
desarrollo.
HISTORIA Y EVOLUCIÓN DE LA IMPRESORA
La creación de la impresora se remonta a la década de
1940 aproximadamente, con la creación de la primera computadora de la historia,
la maquina analítica de Charles Babbage, aunque Babbage nunca termino de armar
su computadora pero si termino los planos de ella y junto con el mecanismo de
impresión los mismos fueron utilizados para armar el modelo funcional en
1991 y presentarlo en 2000 al publico en el Museo de Ciencias de Londres, este
modelo estaba formado por 4000 piezas mecánicas y pesar alrededor de 2,5
toneladas.
UNIVAC High Speed Printer
La primera impresora de alta velocidad llamada UNIVAC High Speed Printer (1953) diseñada por Remington-Rand para ser utilizada es un ordenador UNIVAC la cual estaba compuesta de cuatro gabinetes, una fuente de alimentación, la máquina de impresión, un dispositivo de control y la comprobación, y un lector de cinta. Esta impresora de cinta alimentada produce seiscientas líneas de texto por minuto.
La primera impresora matricial (1957)
Es puesta a la venta por parte de IBM la primera
impresora de matriz de punto. una impresora matricial o impresora de
matriz de puntos es un tipo de impresora con una cabeza
de impresión que se desplaza de izquierda a derecha sobre la pagina,
imprimiendo por impacto, oprimiendo una cinta de tinta contra el papel, de
forma similar al funcionamiento de una maquina de escribir.
La primera mini-impresora (1968)
En septiembre de 1968, Shinshu Seiki lanzo la primera
mini-impresora del mundo, el EP-101, que pronto fue incorporada en muchas
calculadoras. En los siguientes años, el nombre Epson fue acuñado después de
que la generación siguiente del EP-101 fuera lanzado al público (el “Son of
EP-101” se convirtió en “EP-SON” quedando en “Epson”).
Centronics Model 101 (1970)
La Centronics Model 101 fue presentada en la National
Computer Conference de 1970. La cabeza de impresión usaba un
innovador sistema de impacto mediante un solenoide de siete
agujas. Basándose en este diseño, Centronics proclamo mas tarde haber
desarrollado la primera Impresora Matricial.
Modelo IBM 3211 (1970)
El 30 de junio de 1970, la computadora IBM
System/370 disponía de una impresora de alta velocidad, la IBM 3211,
que había sido desarrollado por Endicott. Además de
la fabricación de 3211, SMD Endicott es responsable de otros
equipos periféricos utilizados con la IBM System/370, incluida la IBM
2821 modelo 6 unidad de control, e IBM 3210 modelo 1 y modelo 2 consola de
impresora.
Láser Xerox (1971)
En 1938, Chester Carlson invento un proceso
de impresión en seco llamado electrofotográfica
Set, comúnmente llamado Xerox, la tecnología base para
las futuras impresoras láser El ingeniero de Xerox Gary Starkweather
adopto la tecnología de copia de la
impresora añadiéndole un haz de láser con el proceso de
la xerografía para crear una impresora láser.
Láser Printer EARS
La primera impresora láser llamada EARS, fue
desarrollada en el Xerox Parc (Xerox Paro Alto Research Center) comenzando en
1969 y finalizando en noviembre de 1971.
La aparición de la
impresora láser.
Xerox 9700 Electronic Printing System
El sistema de impresión electrónica, xerographica, Xerox
9700, es el primer producto con impresora láser Xerográfica. Fue comercializado
en 1977. El Xerox 9700, es descendiente directo de la impresora original PARC
“EARS”, que fue la pionera en la exploración del láser óptico, en la
electrónica de generación de caracteres y en el software de formato página.
Hewlett Packard (1976)
En la década de los 70 se desarrolla la tecnología de
inyección de tinta. Los investigadores tuvieron dificultades para crear un
flujo controlado de tinta desde el cabezal de impresión a la página.
En 1976, la Hewlett Packad creo la primera impresora de
inyección de tinta, pero solo fue hasta 1988 cuando llego a los hogares de los
consumidores. Ofrecía una velocidad promedio de apenas 2 páginas por minuto.
Impresora de margarita (1978)
En 1978 se crea la impresora de margarita, que únicamente
podía escribir letras y números, pero tenía calidad de máquina de escribir. Las
impresoras margarita se basan en el principio de las máquinas de escribir. Una
matriz en forma de margarita contiene “pétalos” y cada uno de estos posee un
carácter en relieve.
Apple Computer – ImageWriter (1983-1984)
La primera imageWriter fue pensada para ser utilizada con
el Apple II. Esta impresora podía producir tanto imágenes como el texto, hasta
una resolución de 144 DPI y una velocidad de cerca de 120 CPS. En modo texto,
la cabeza movía en ambas direcciones mientras que para imprimir gráficos la
cabeza solamente se movía en una dirección.
Apple Computer – LaserWriter (1984-1986)
En 1984 Apple Computer crea un prototipo de impresora, la
LaserWriter, fue un salto importante, ya que esta impresora una impresión de
texto y gráficos con una calidad comparable a la de la imprenta profesional. Lo
consiguieron gracias al uso de un lenguaje de descripción de página llamado
adobe PostScript, con este lenguaje se imprimían textos y gráficos escalables
de alta resolución.
HP- LaserJet Classic (1984)
En 1984, HP introdujo la primera impresora LaserJet en la feria COMDEX de las vegas, aquel modelo revolucionaria un mercado que acogió con timidez aquel primer modelo que de hecho, era complicado de usar porque no había software preparado para ella, pero que pronto comenzaría a valorar las ventajas de esta tecnología. La LaserJet Classic contaba nada menos que U$ 3.495 de la época.
En 1984, HP introdujo la primera impresora LaserJet en la feria COMDEX de las vegas, aquel modelo revolucionaria un mercado que acogió con timidez aquel primer modelo que de hecho, era complicado de usar porque no había software preparado para ella, pero que pronto comenzaría a valorar las ventajas de esta tecnología. La LaserJet Classic contaba nada menos que U$ 3.495 de la época.
RET & PCL 5 (1990)
Hawlett Packard presento en mayo de 1990
la tecnología RET (Resolution Enhancement Technology) que
incrementaba dracticamente la calidad de impresión ademas,
gracias al PCL 5, los usuarios podían aumentar y disminuir el tamaño
de las fuentes sencillamente. ello tuvo un gran efecto en el software de
procesado de textos y marco un nuevo estándar en la industria, puesto
que los usuarios ya no estaban limitados a utilizar únicamente los
tamaños 10 y 12.
La primera impresora láser de menos de U$ 1000
(1990)
La LaserJet IIP fue lanzada en septiembre de 1990 y
se convirtió en la primera impresora láser persona en bajar
de los U$ 1000. La LaserJet IIP ofrecía a los usuarios la misma
calidad de impresión que su predecesora, la LaserJet II, pero a la
mitad de precio y tamaño.
La primera impresora de Red (1991)
En marzo de 1991 HP lanzo la primera impresora con
conectividad de red de área local, la LaserJet IIIsi. Los
clientes podían conectar su impresora directamente a una red Ethernet
o Token Ring a través del servidor de impresión HP
JetDirect, que ofrecía un rendimiento superior, una mayor
flexibilidad y permitía compartir la impresora en un grupo de
trabajo. La LaserJet IIIsi fue también la primera impresora de HP en
ofrecer Adobe PostScript, en contraposición a los cartuchos de fuente
ofrecidos en anteriores modelos.
Apple Computer (1992)
En febrero de 1992, Apple Computer lanza la StyleWriter,
incluyendo un driver que permitía utilizar
la tecnología Apple IIgs System Software 6.
Impresora de comunicaciones Bidireccionales (1992)
La LaserJet 4, fue lanzada en octubre de 1992, fue la
primera impresora de HP en soportar comunicaciones extensivas bidireccionales.
Desde ese momento las impresoras de red se podían comunicar con los
ordenadores y viceversa. Este hito permitió avances en
la gestión de redes de impresoras. Ademas, la LaserJet 4 fue la
primera en ofrecer una resolución de 600 ppp y utilizar toners
microfino para una mayor calidad de imrpesion. También fue la primera
LaserJet en incorporar fuentes TrueType, que asegura una total correspondencia
entre las fuentes impresas y las mostradas en la pantalla.
Software JetAdmin y soporte de red multiprotocolo (1993)
Hp lanzo en abril de 1993 el software JetAdmin, el primer
software de gestión de impresión basada en una GUI (Graphic
User Interface), acompañando el lanzamiento de la LasrHet 4Si, Gracias a
JetAdmin se podían instalar y gestionar varias impresoras de una red
local desde el ordenador del administrador de red. Ademas, la LaserJet 4si fue
la primera impresora con soporte JetDirect multiprotocolo,
que permitía conectarse y procesar trabajos desde un PC, un MAC y
redes UNIX.
MET y ahorro de energía (1993)
En mayo de 1993 se lanzo la LaserJet 4L, junto a ella se
presento una nueva tecnología de HP, la MET (Memory Enhancement Technology),
una solución económica que permitía a los usuarios
guardar mas información ocupando menos memoria. Fue ademas la primera
LaserJet que incluía un modo de ahorro de energía que
apagaba automáticamente la maquina cuando no se estaba utilizando, con
el consiguiente ahorro energético asociado. Poco después en
febrero de 1994, las impresoras láser de HP obtuvieron
la certificación Energy Star de la EPA (Enviromental Protection
Agency).
Un nuevo estándar de rendimiento (1994)
HP elevo el estándar mundial de impresiones de
las 8 ppm (paginas por minuto) a las 12 ppm con el lanzamiento de la LaserJet 4
Plus.
La primera impresora láser de formato apaisado
(1994)
La LaserJet 4v fue la primera impresora de HP
de formato apaisado, lanzada en septiembre de 1994, se convirtió en
el referente en cuanto a precio y rendimiento para impresiones de 11×17.
La primera LaserJet Color (1994)
Hp entro en el mercado de
la impresión láser color en septiembre de 1994 con la Color
LaserJet, con un coste medio por pagina de menos de 10 céntimos la
Color LaserJet ofrecía a las empresas una
alternativa económica a los centros de impresión que
cobraban U$ 1 o mas por cada copia a color. Ademas, el software ColorSmart
simplificaba y optimizaba la impresora en color.
MIB & SNMP (1994)
En septiembre de 1994, HP contribuyo a ratificar un
acuerdo sectorial para la utilización de
los estándares de impresión en red MIB (Managed Information
Base) y el protocolo Simple Network Management (SNMP). Ambos mejoraban la
experiencia de impresión fuera cual fuera la impresora y la red
utilizada.
La primera
impresora láser con tecnología por infrarrojos (1995)
La LaserJet 5P, lanzada por HP en marzo de 1995 fue la
primera impresora del mercado en
incorporar tecnología inalámbrica por infrarrojos.
Apple Computer (1995)
En 1995, Apple Computer presenta la primera
impresora láser a color, la Color Láser Printer 12/600PS.
La impresora 600×600 PPP viene con 12 MB de RAM, utilizando un diseño canon, su
precio ronda los U$ 7000.
Nuevos estándares en precios y calidad
de impresión (1995)
Lanzada en septiembre de 1995, la LaserJet 5L fue la
primera impresora de menos de U$500 y una resolución de 600×600 ppp.
Gestión avanzada del papel (1995)
La LaserJet 5L introdujo en noviembre de 1995 un gran
avance en la impresión en red. Esta
impresora incluía características avanzadas
de gestión del papel como una bandeja para 2000 hojas y la capacidad
de pagar y grapar documentos electrónicos La LaserJet 5L incluía un
paquete avanzado de software de gestión de impresión.
Image RET 1200 (1996)
HP lanzo la Color LaserJet 5 en marzo de 1996. El Image RET 1200, que utilizaba millones de colores sólidos el cual le otorgaba a la impresora una calidad de imagen sin precedentes.
HP lanzo la Color LaserJet 5 en marzo de 1996. El Image RET 1200, que utilizaba millones de colores sólidos el cual le otorgaba a la impresora una calidad de imagen sin precedentes.
PCL 6 (1996)
La LaserJet 5 Lanzo en abril de 1996. Fue la primera en
incluir el PCL 6, un lenguaje mejorado de descripción de paginas
que ofrecía una mayor velocidad de impresión especialmente
con documentos que incluían gráficos complejos.
La primera mopiadora del mercado (1996)
Una mopiadora es una impresora de red que permite a los
usuarios imprimir múltiples copias originales (mopias). Las
mopiadoras eliminan la necesidad de fotocopiar los documentos.
HP introdujo el primer dispositivo de este tipo, la LaserJet 5si Mopier en noviembre de 1996 su tecnología de transmisión reducía el trafico de red y daba a los
usuarios una respuesta mas rápida La LaserJet
5si Mopier incorporaba también características de pegado y
grabado electrónico.
JetSend, FastRes 1200, EIO y
el tóner UltraPrecise (1997)
HP introdujo con la LaserJet 4000 una serie
de tecnología punteras en noviembre de 1997. La mas importante de
todas las JetSend, que permitían una comunicación directa
entre impresoras, escaneres y otras aplicaciones.
Ademas, la LaserJet 4000 fue la primera impresora para
grupos de trabajo con tecnología de fusor “instant-on”. Ademas, fue
la primera impresora láser incorporar FastRes 1200,
una tecnología capaz de ofrecer resoluciones de 1200 PPP sin merma de
la calidad ni un uso abusivo de memoria.
La LaserJet 4000 fue también la primera
impresora láser en soportar EIO (Enhanced Imput/Output), la
segunda generación del interfaz de red de alto rendimiento de HP.
La primera impresora multifuncional para el gran publico
(1998)
HP lanzo la LaserJet 3100 en abril de 1998. Fue el primer
dispositivo láser multifuncion para el gran publico del mercado, una
herramienta versátil que permitía a las empresas imprimir,
fotocopiar, escanear y enviar faxes desde un mismo equipo.
La LaserJet 1100A, lanzada en octubre de 1998, fue el primer
dispositivo multifuncion en incorporar la tecnología JetPath, la cual
eliminaba las limitaciones de velocidad y calidad de las
fotocopias típicas de los dispositivos multifuncionales hasta la
fecha.
La LaserJet mas rápida (1998)
HP lanzo en octubre de 1998 la LaserJet
mas versátil y rápida hasta a fecha, la LaserJet 8100.
Entre las muchas cualidades de producto destacaban las opciones de “Private
Printing” y “Proof and Hold”. La primera de ellas permitía a los usuarios
imprimir documentos de forma segura desde el panel de control; la
segunda permitía imprimir una prueba de un documento antes de
imprimir el resto.
Las primeras impresoras láser color
con impresión a doble cara automática (1998)
HP lanzo en octubre de 1998 su
ultima generación de impresoras láser color, la Color
LaserJet 4500 y la Color LaserJet 8500. Fueron las primeras
impresoras láser color en incorporar la impresión a doble
cara. La Color LaserJet 4500 era una impresora láser color para
pequeños grupos de trabajo mientras que la Color 8500 iba dirigida a
departamentos mas grandes. Ambas podían trabajar con un amplio rango
de papeles y tamaños.
Color LaserJet 4500
Color LaserJet 4500
Color LaserJet 8500
La primera impresora láser personal de 1200 ppp
(1999)
La LaserJet 2100 fue la primera impresora láser personal
en ofrecer una resolución de 1200×1200 ppp sin merma alguna de
calidad. HP la lanzo en febrero de 1999.
Precio y rendimiento (1999)
La LaserJet 4050 se unió a la familia en mayo
de 1999. Esta impresora fue lanzada 15 años después de la LaserJet
Classic. Con un precio idéntico a la LaserJet 4000, la LaserJet
4050 ofrecía un mejor rendimiento, mayor versatilidad y un coste
total de propiedad.
La primera copiadora de red con escaneado a doble cara
(1999)
En octubre de 1998, HP lanzo la copiadora 320, la primera
copiadora de red capaz de escanear de doble cara.
Primer driver de impresión universal (UPD) del
mercado (2005)
En 2005, los técnicos de redes se preguntaban:
¿No estaría bien si se pudiera instalar y actualizar cualquier
impresora con único software de gestión , en noviembre de
2005, HP lanzo el primer driver de impresión universal (UPD) diseñado
por defecto.
2.000.000 de descargas del UPD (2007)
En febrero de 2007 se alcanzo la cifra de dos millones de
descargas del driver de impresión universal (UPD) desde la web de HP,
permitiendo a los usuarios y al departamento de TI gestionar de forma mas
eficaz sus flotas de impresoras.
HP, color para todos (2008)
En marzo de 2008, la democratizacion total del
color en el lugar de trabajo se hizo realidad con el lanzamiento de la LaserJet
CP1215, la impresora láser mas barata de la historia.
“Como era de esperar, el más pequeño de la impresora HP
LaserJet inspira las más grandes historias”
Historia de PARLATE O ALTOVOCE
Bose Corporation fue fundada en 1964 por el Dr. Amar G.
Bose, entonces profesor de ingeniería eléctrica en el Instituto de Tecnología
de Massachusetts. Las investigaciones que el Dr. Bose llevó a cabo para su
graduación en el MIT le llevaron a desarrollar nuevas tecnologías patentadas,
y, animado por el MIT, acabó creando su propia compañía basándose en dichas
patentes.
Bose Corporation se consolidó en 1968 con el lanzamiento
del sistema de altavoces de sonido DIRECTO/REFLEJADO® 901®. Con este
lanzamiento,
Bose alcanzó fama internacional al establecer un nuevo estándar para la reproducción de sonido natural. Y, desde entonces, la lista de destacadas tecnologías desarrolladas por Bose no ha dejado de crecer. Varios productos galardonados, como los sistemas de entretenimiento doméstico LIFESTYLE® y los productos WAVE®, han acabado con la creencia convencional de que existe una relación directa entre el tamaño y la complejidad de un sistema de audio y la calidad de sonido que produce.
Bose alcanzó fama internacional al establecer un nuevo estándar para la reproducción de sonido natural. Y, desde entonces, la lista de destacadas tecnologías desarrolladas por Bose no ha dejado de crecer. Varios productos galardonados, como los sistemas de entretenimiento doméstico LIFESTYLE® y los productos WAVE®, han acabado con la creencia convencional de que existe una relación directa entre el tamaño y la complejidad de un sistema de audio y la calidad de sonido que produce.
Bose Corporation es una multinacional de capital privado
con una cifra de ventas anual de 1,8 mil millones de dólares. Bajo el liderazgo
del Dr. Bose, presidente y director técnico de la compañía, el cien por cien de
los beneficios se reinvierten en crecimiento y desarrollo.
Filosofía de la compañía
El excepcionalmente alto grado de compromiso con la investigación que tiene Bose Corporation estimula a la compañía a alcanzar el objetivo esencial que persigue: desarrollar productos y tecnologías innovadores que mejoren la vida de la gente. Bose emplea grandes dosis de investigación y creatividad científica en el descubrimiento de nuevos conceptos y el desarrollo de nuevos productos. Es en este espíritu innovador y apasionado que la compañía se esfuerza por crear exclusivas experiencias que resulten edificantes y placenteras para sus clientes.
El excepcionalmente alto grado de compromiso con la investigación que tiene Bose Corporation estimula a la compañía a alcanzar el objetivo esencial que persigue: desarrollar productos y tecnologías innovadores que mejoren la vida de la gente. Bose emplea grandes dosis de investigación y creatividad científica en el descubrimiento de nuevos conceptos y el desarrollo de nuevos productos. Es en este espíritu innovador y apasionado que la compañía se esfuerza por crear exclusivas experiencias que resulten edificantes y placenteras para sus clientes.
El modo en que Bose diseña sus altavoces y sistemas
musicales se basa en el convencimiento de que los productos de audio existen
para ofrecer un sonido natural a todos y en todas partes y que es el sonido, y
no los equipos, lo que importa.
Desde sus comienzos, la compañía también ha empleado su
talento y experiencia en materia de investigación en otras áreas, como la
amplificación de potencia de fuentes conmutadas, equipos para pruebas
biomédicas y suspensiones electromagnéticas para el automóvil.
Productos
Los primeros productos que Bose Corporation desarrolló fueron amplificadores de alta potencia, fabricados bajo contrato para el ejército estadounidense que deseaba convertir la alimentación por batería de sus aviones y submarinos en alimentación de corriente alterna. El primer producto para uso doméstico de Bose, el sistema de altavoces de sonido DIRECTO/REFLEJADO® 901®, se introdujo en el mercado en 1968 y recibió una gran acogida tanto a nivel internacional como por parte de los usuarios.
Los primeros productos que Bose Corporation desarrolló fueron amplificadores de alta potencia, fabricados bajo contrato para el ejército estadounidense que deseaba convertir la alimentación por batería de sus aviones y submarinos en alimentación de corriente alterna. El primer producto para uso doméstico de Bose, el sistema de altavoces de sonido DIRECTO/REFLEJADO® 901®, se introdujo en el mercado en 1968 y recibió una gran acogida tanto a nivel internacional como por parte de los usuarios.
En 1972, Bose lanzó su primer altavoz profesional
destinado a músicos avezados. A principios de los años 80, Bose revolucionó el
mercado del audio para el automóvil con los primeros sistemas de sonido
montados en fábrica y adaptados a cada modelo de coche.
Desarrollada en 1986, la tecnología patentada que emplean
los auriculares Acoustic Noise Cancelling ® de Bose permite reducir
espectacularmente los ruidos no deseados y ofrece un mayor rendimiento acústico
a pilotos, personal militar y amantes de la música. Hoy en día, los productos
Bose están presentes dondequiera que la calidad del sonido sea importante:
desde los Juegos Olímpicos hasta la Capilla Sixtina, desde los transbordadores
espaciales de la NASA hasta el Teatro Nacional de Japón, en hogares y en la
carretera y en grandes estadios al aire libre y pequeños locales de barrio. Si
desea obtener una lista completa o más información acerca de los productos
Bose, visite www.bose.eu.
Las soluciones de audio para uso doméstico Bose® incluyen
los sistemas de entretenimiento doméstico LIFESTYLE®, los productos WAVE®, los
altavoces de sonido surround y estéreo ACOUSTIMASS®, altavoces para ordenador,
altavoces exteriores y marinos e instalaciones domésticas personalizadas.
Los sistemas de sonido para el automóvil de Bose se
instalan en la actualidad en las siguientes marcas de coches: Acura, Alfa
Romeo, Audi, Buick, Cadillac, Chevrolet, Ferrari, GMC, Honda, Hummer, Infiniti,
Lancia, Maserati, Maybach, Mazda, Mercedes, Nissan y Porsche.
Los auriculares y cascos con tecnología de reducción de
ruidos de Bose incluyen los cascos para la aviación X, los auriculares
Quietcomfort® 2 y Quietcomfort 3 con tecnología Acoustic Noise Cancelling® y
los auriculares Triport®.
Los sistemas de sonido profesionales Bose® se
personalizan para una gran variedad de instalaciones y negocios, como estadios,
hoteles, centros comerciales, auditorios, lugares de culto, restaurantes,
colegios y oficinas.
Los productos Bose destinados a músicos incluyen
altavoces, amplificadores, controladores y la gama de productos PERSONALIZED
AMPLIFICATION SYSTEM™.
Productos científicos de Bose: avanzados equipos de
prueba ElectroForce™ para la investigación y el desarrollo de biomateriales y
materiales de ingeniería.
HISTORIA DEL PROYECTOR
Historia del proyector.
Louis Lumiere, uno de los primeros inventores de imágenes
en movimiento es citado con la siguiente frase: "El cine es un invento sin
futuro". Y sin embargo, Lumier, junto a un número de
"co-inventores" quienes aparecieron a lo largo de tres siglos, han
hecho avances para un increíble futuro del cine. El proyector ha avanzado mucho
desde este tiempo, y aún sus inicios no son menos imaginativos que las
películas que vemos hoy en día.
La Linterna Mágica está reportada como el primer
proyector, inventado en los años 1650 por un científico holandés llamado
Christiaan Huygens. Las imágenes proyectadas eran emitidas hacia un
diapositivas pintadas a mano dentro de una caja de madera. Se utilizaban
palancas para cambiar las imágenes y dar la apariencia de movimiento. Los
artistas utilizaban estas cajas en sus espaldas y vendían espectáculos en
posadas y castillos. La fuente de luz para las imágenes era una linterna que
producía una luz de color lima mediante el uso de piedra caliza, hidrógeno y
oxígeno. Estas linternas venían en tamaños grandes y pequeños; algunas estaban
equipadas con dos lentes para proyecciones en grandes salones. Los efectos de
sonido para las presentaciones eran realizadas por los artistas y por músicos,
con los miembros de la audiencia que se les unían. La Linterna Mágica sirvió
como único método de imágenes en movimiento hasta la llegada de las
"películas" hacia finales de la década de 1890.
Características
Se necesitó la invención de la cámara que utilizaba filme
de papel para desatar la cadena de invenciones que derivarían en el proyector
cinematográfico. En 1888, George Eastman hizo su descubrimiento y sacó al
mercado la primera cámara Kodak. En el mismo año, Etienne Marey inventó una
versión de cámara como las de Eastman que utilizaba tiras de papel para mostrar
imágenes en movimiento. Thomas Edison, inventor del fonógrafo, asoció
rápidamente la idea de la música continua con la de la de las imágenes en
movimiento e intentó modelar un proyector tras la invención del fonógrafo. La
idea no tuvo éxito, así que Edison - con mucha asistencia de su asistente
William Dickson- prosiguieron en la invención de la cámara kinetográfica y la
caja de visión kinetoscópica, modeladas según las invenciones de Eastman y Marey.
Para 1893, Edison condujo su primera exhibición pública utilizando estos
dispositivos. Esto tuvo lugar en 1893 en Black Maria - el primer estudio de
producción del mundo - construido en los laboratorios subterráneos de Edison en
West Orange, Nueva Jersey.
Función
Los proyectores de cine hasta este momento estaban
compuestos por dos partes - el kinetoscópio y el kinetógrafo - y las películas
sólo podían ser vistas por una persona a la vez. Las dos partes más los
materiales para los filmes eran muy costosos para convertirse en un artículo
lucrativo. La invención del cinematógrafo, por los hermanos Lumiere en 1894,
combinaba las funciones de grabación y proyección en un mismo dispositivo.
También se realizaron mejoras en cuando a cómo era cortado y cómo se colocaba
en la máquina el material del filme. En 1895 se realizó la primera grabación
con el cinematógrafo en París. Esta sería la primera vez que una película fue
emitida ante un público que pagó por asistir, pudiendo verla todos a la vez.
Significancia
El personaje principal que introdujo la idea de imágenes
en movimiento fue un fotógrafo británico llamado Eadweard Muybridge. El
proyector praxinoscópico de Muybridge, inventado en 1890, sirvió como precursor
para los éxitos de Edison y Lumiere. Su dispositivo fue el primero en
"construir" movimiento en los filmes utilizando imágenes múltiples
sucesivas. Su invención combinaba imágenes de 12 cámaras alineadas en fila,
grabando los movimientos de los cascos de un caballo sobre el suelo.
Potencial
Mientras que cada fase sucesiva del desarrollo del
proyector nos ha conducido hacia la experiencia cinematográfica que poseemos
hoy en día, sólo pocos de estos descubrimientos pasados son conservados aún en
su forma original. El Bucle de Latham es uno de ellos. El Mayor Woodville
Latham, en un intento de comercializar una de sus propias versiones del
proyector, proveyó de un mecanismo que pasaba el filme por el proyector. Esto
permitió el desarrollo de películas que durasen más de tres minutos. Las
cámaras y proyectores de hoy en día utilizan el Bucle de Lantham. Los hermanos
Lumiere también introdujeron la cinta de 35mm que se utiliza hoy en día, como
parte de su conversión del kinetógrafo en el cinematógrafo. Sigue siendo el
estándar utilizar esta película en el cine y en la fotografía.
Auriculares
Los auriculares[1] (también conocidos como audífonos[2] o cascos
[3] )
son transductores que reciben una señal eléctrica originada desde una fuente
electrónica (como por ejemplo una radio, sintoamplificador o reproductor de audio)
que por su diseño permiten colocar cerca de los oídos unos altavoces para
generar ondas sonoras audibles.[4]
Los auriculares son normalmente desmontables e intercambiables, es decir,
que pueden enchufarse o desenchufarse con facilidad del equipo que los
requiere, y que los mismos auriculares pueden ser usados por diversos sistemas
de audio.
En el contexto de las telecomunicaciones, los auriculares se refieren a un
tipo de aparato que refiere a una combinación de auriculares y micrófono para
la comunicación bidireccional. Por ejemplo, un teléfono móvil.
Historia[editar]
Los auriculares iniciaron su uso a partir de la telefonía y la radio. Las
señales eléctricas débiles de los tempranos instrumentos eléctricos (todavía no
electrónicos) requerían de una amplificación personalizada para el ámbito de la
telefonía.
A la empresa Beyerdynamic se le atribuye oficialmente el invento, a finales
de los años 1930, y como la primera empresa en vender auriculares al público en
general: modelo DT48 en 1937.[5]
Su uso se masificó a partir del surgimiento de los sistemas de audio
personales: radios portátiles y reproductores portátiles de casete;
posteriormente el fenómeno se acrecentó con el uso del reproductor de CD, el reproductor
de audio digital, y la computadora personal.
Con el avance de la electrónica se han incorporando el receptor de radio
AM/FM; y han adquirido otras capacidades como la comunicación inalámbrica (por
medio de infrarrojos, Bluetooth, o Wi-Fi) para recibir señales de una unidad
base.
Tipos[editar]
Por posición relativa al oído, se suelen clasificar en:[6]
- Circumaurales: rodean completamente la oreja. Estos auriculares, cuando son cerrados, permiten el aislamiento sonoro casi por completo del sujeto que escucha. Asimismo impiden que el sonido reproducido salga al exterior, por eso sus aplicaciones suelen estar más dedicadas al campo profesional, como monitorización de amplificación en vivo (típicamente operación de consola de mezcla en recitales) o mezcla para DJs en clubes. La principal característica de estos dos tipos, es que, al estar ligeramente separados del oído generan una mayor sensación natural del campo estéreo y una reproducción de frecuencias más lineal y precisa.
Auriculares circumaurales
- Supraaurales: Los altavoces cubren la mayor parte del pabellón auditivo. Siendo este diseño el estándar en sonido Hi-Fi domésticos, pero también en los sistemas de mezcla profesional. Son "portátiles" por ser más ligeros y menos voluminosos que los circumaurales.
Auriculares supraaurales
- Intraurales o intrauriculares: Son pequeños auriculares, aproximadamente del tamaño de un botón que se introducen dentro del canal auditivo, y permiten al oyente un mayor aislamiento, movilidad, y confort subjetivo (la sensación de comodidad difiere según el usuario). Su mayor defecto es que el sonido parece que viniera del interior de la cabeza, por lo que se pierde la sensación auditiva natural, en la que el sonido llega del exterior. También por su tamaño ofrece menor rendimiento sonoro que un dispositivo de mayor tamaño. Su uso esta generalizadamente extendido para la escucha de reproductores portátiles (reproductor MP3, reproductor MP4).
Auriculares intrauriculares
Según el mecanismo de soporte:[6]
- Diadema: los auriculares van acoplados en los extremos de una diadema. Los hay de diversos tipos de materiales y formas. Los más comunes suelen ser de plástico y metal acolchados.
- In-ear: Se insertan en el canal auditivo y logran bloquear el sonido externo mediante gomas o siliconas que se amoldan a cada usuario. Están entre los más transportables, pero también los que llegan de forma más directa al oído interno, por lo que el perjuicio puede ser mayor.
- Buds:Se colocan en el oído externo y están más alejado del interno que los in-ear, por lo que es un punto medio entre estos y los de diadema. Son tal vez los más utilizados ya que suelen venir acompañando a los reproductores de música y a los teléfonos móviles.
- Clip-ear: Son prácticamente iguales que los buds o los in-ear, con la diferencia de que cuentan con una estructura, en general plástica o de silicona, para colocarlos alrededor de la oreja. Son ideales para salir a correr, para el gimnasio u otras actividades ya que no se salen con facilidad.
- Back-Neck, Behind The Neck, Neckband: Similares a los 'clip-ear', pero además cuentan una cinta que va por la nuca y comprime los auriculares hacia la cabeza.
Si llevan micrófono puede ser:
- Headset: de tipo diadema, normalmente el micrófono va acoplado a uno de los auriculares en forma de brazo articulado. Suelen usarse en entornos profesionales, aviación, gamers...
- Earset: intraauriculares, normalmente el micrófono va acoplado en el cable. Son los que hoy en día se usan con los teléfonos móviles.
Por el principio de funcionamiento:
- Electrodinámicos: son los más utilizados. Tienen buena reproducción de agudos y son económicos.
- Electrostáticos: tienen buena respuesta en frecuencia.
- Piezoeléctricos: se usan para equipos pequeños (ayuda para la sordera, etc.).
Por el conexionado:
- Cableados
- Inalámbricos
- Infrarrojos
- Radiofrecuencia
- Bluetooth
Vocabulario
La cancelación de ruido, por su traducción al español, es una
característica parcialmente nueva que podemos encontrar en algunos modelos.
Básicamente lo que generan es que, al colocarse los auriculares, no se escuche
absolutamente nada de lo que está sucediendo alrededor y se pueda concentrar
exclusivamente en la música.
Esta tecnología es buena para DJs o para escuchar música en entornos muy
ruidosos. En algunos diseños es posible activar o desactivar esta función. Casi
todos estos modelos se alimentan de pilas para hacer funcionar la cancelación
de ruido.
Frecuencia
Se trata del rango de sonidos que puede desplegar el auriculares. Se mide
en hercios e incluye desde las frecuencias más altas hasta los bajos más
profundos. Normalmente encontrarás un rango compatible con cada modelo, por
ejemplo 18 Hz a 30 000 Hz. Cuanto más grande sea el rango mejor,
así se logra mayor sensibilidad en graves y agudos. Como referencia, el ser
humano puede escuchar frecuencias de entre 20 Hz y 20 000 Hz.
Impedancia
Es la resistencia al paso de corriente eléctrica; a menor impedancia, mayor volumen, por lo que se pueden hacerlos funcionar
apropiadamente con fuentes de corriente pequeñas como el iPod (impedancias
de 60 ohmios o menores). Si la impedancia es grande, por encima de 100 ohmios,
se deberá usar un amplificador de audio.
Decibelios
El decibelio es la unidad con la que se mide la intensidad de sonido. Más
decibelios significa mayor volumen del sonido. Casi todos los auriculares
soportan hasta 100 dB.
El uso de auriculares a su vez puede producir cambios en la salud humana si
se usan con un volumen muy alto de sonido. Se recomienda no exceder los
110 dB en el uso habitual para evitar problemas de oído.
Beneficios y limitaciones[editar]
Los auriculares se utilizan para evitar que otras personas puedan o tengan
que escuchar el sonido, como en sitios públicos, bibliotecas, etcétera o para
el aislamiento. Además, los auriculares pueden proporcionar una calidad de
sonido superior a la mayoría de los altavoces, incluso de alta gama. Esto es
especialmente notable en frecuencias bajas, donde en sistemas de altavoces
domésticos es necesario el uso de un subwoofer, e incluso subwoffers de alta
calidad pueden tener distorsiones en frecuencias muy bajas (en el caso de los
auriculares es mucho menos común a frecuencias muy bajas como 20 Hz).
Los auriculares también permiten un avanzado sistema de posicionamiento 3D de audio, muy usado en el cine y sobre todo en videojuegos, donde se puede juzgar la posición a partir de las fuentes de sonido (como los pasos de un enemigo) antes de aparecer en pantalla. Sin embargo, hay que destacar que el posicionamiento de sonido tridimensional está mucho más avanzado en el caso de sistemas de sonido 5.1 y 7.1. Para recrear un efecto similar con auriculares se utiliza la holofonía, sistema de audio que recrea casi a
la perfección cualquier ambiente sonoro. Sin embargo es muy poco utilizado,
debido a la necesidad de grabar las fuentes de sonido con micrófonos especiales
y por tanto, imposible de realizar en tiempo real. Esto hace que muchas veces
la mayoría de grabaciones que se escuchan sean grabadas en un estéreo diseñado
para altavoces, que crean el efecto sonoro donde el sonido proviene del
"centro de la cabeza" del oyente. Para simular los efectos tales como
la reverberación de una estancia o sonidos que provienen de la parte de atrás
es necesario recrear dichas condiciones en la propia grabación, ya que los
auriculares, al ir directamente al oído, no crean por sí mismos dichos efectos.
Las grabaciones binaurales (las utilizadas para las Holofonía precisamente
sirven para eso, pero por las razones antes mencionadas son poco comunes en el
cine y música.
Peligros
Usar los auriculares en un nivel de volumen suficientemente alto puede
causar el deterioro, y/o la sordera temporal o permanente de oído debido a un
efecto llamado enmascarar. El volumen del auricular tiene que competir
con el ruido de fondo, especialmente en lugares excesivamente ruidosos tales
como estaciones del subterráneo, aviones, y grandes multitudes. Esto conduce a
la aparición del dolor normal asociado a niveles más altos de volúmenes, y los
períodos prolongados del volumen excesivamente ruidosos son extremadamente
perjudiciales.
En estos últimos años, el interés netamente se ha
centrado de nuevo en la protección de la audición, y las compañías han
respondido. Por ejemplo, la AVLS de Sony corrige diferencias en volúmenes de la
pista mientras se están reproduciendo, y el chequeo de los sonidos de Apple
normaliza los volúmenes máximos de pistas seleccionadas en iTunes. Al igual la
nueva tecnología de la marca Beats ha desarrollado sistemas de protección
extensiva para el oído, creando límites de DB. También, uno puede manipular las
etiquetas de
volumen del archivo MP3; este método se debe hacer manualmente por el
usuario por medio de software de terceros.
El gobierno francés ha impuesto un límite ante todos los reproductores de
música vendidos en el país: no deben ser capaces de producir más de 100 dB
(el umbral de daño de la audición durante su uso extendido es 80 dB, y el
umbral del dolor, o de la pérdida de oído inmediata, es 130 dB).
Otros riesgos se presentan por el conocimiento reducido de sonidos externos
—algunas jurisdicciones regulan el uso de auriculares mientras se conducen
vehículos, limitando generalmente el uso de auriculares a un solo oído. También
suelen limitar el volumen del sonido.
Historia del Fax:
origen y evolución
Conoce uno de las tecnologías que cambio el mundo. Historia
del Fax, su origen y evolución.
Historia del Fax: origen y evolución
Hoy en día, todos conocemos el Fax. Esta valiosa máquina, nos
ha ayudado muchas veces en nuestra vida cotidiana, sobre todo en lo que
respecta a nuestra faceta profesional. La historia del Fax es más antigua de lo
que quizás piensas, y aquí puedes conocer sus orígenes y evolución hasta hoy.
Introducción al mundo del Fax
El Fax (facsímil) o también llamado telecopia, trata de la
“transmisión telefónica de material escaneado impreso (tanto texto como
imágenes), normalmente a un número de teléfono conectado a una impresora o a
otro dispositivo de salida. El documento original es escaneado con una máquina
de fax, que procesa los contenidos (texto o imágenes) como una sola imagen
gráfica fija, convirtiéndola en un mapa de bits, la información se transmite
como señales eléctricas a través del sistema telefónico. El equipo de fax
receptor reconvierte la imagen codificada, y la imprime en papel.1 Antes del
triunfo de la tecnología digital, durante muchas décadas, los datos escaneados
se transmitieron como señal analógica”. Una descripción bastante acertada, para
que todos podamos entender que es realmente que es este aparato, antes de
entrar a conocer la historia del Fax.
Partes de un fax
En esencia, un fax se compone de un escáner de imágenes, un
módem y una impresora combinados en un aparato especializado. La tarea del
escáner, es “convertir el documento original en una imagen digital; mientras el
módem envía la imagen por la línea telefónica; al otro lado, otro módem lo recibe
y lo envía a la impresora, que hace una copia del documento original”.
Utilidad
Al principio de la historia del fax, este solo se usaba en el
mundo del periodismo. La eficiencia y el afán de modernización de esta máquina,
también la hicieron realmente atractiva en el ámbito de los negocios.
Hoy en día, el uso del Fax ha disminuido, ya que Internet y
el correo electrónico se han impuesto en estos sectores. Aun así, sigue siendo
muy usado en campos como la sanidad, las finanzas o las compañías de seguros
(propuestas, partes amistosos de accidentes, facturas, notas a mano de
inspectores y peritos...) entre otras.
Es interesantes que sepas, que al fax se le concede valor
legal. “En España, 'Correos' ofrece servicios de fax y además el servicio
burofax, por lo que es usado en la formalización y cancelación de contratos, y
presenta la ventaja de no ser crackeable”.
Origen del Fax
El inventor de este aparato fue el escocés Alexander Bain.
Este gran inventor, trabajó con anterioridad en en los dispositivos mecánicos
de productos químicos de tipo fax. Sería en 1846, cuando Bain fue capaz de
reproducir signos gráficos en experimentos de laboratorio. En el año 1843, ya
había recibido la patente de fax por primera vez.
Frederick Bakewell sería quien culminaría el invento de Bain.
Bakewell, realizó algunas mejoras sobre el diseño que había hecho Bain años
antes, lo que dio como resultado una máquina de Fax. Un poco después, llegaría
el físico italiano Giovanni Casell, quien invento el Pantelegraph. Castell fue
el encarga de introducir el primer servicio comercial de fax entre París y Lyon
en 1865, lo cual se dio 11 años antes de la invención del teléfono. Ya podéis
ver que fue un gran avance.
Ya en el año 1881, Shelford Bidwell construyó el scanning
phototelegraph (escáner fototelegráfico). Este inglés, inventó la primera
máquina de fax capaz de escanear cualquier original bidimensional manualmente,
sin requerir trazar o dibujar. Algo realmente innovador para la época, que
traería grandes avances en el mundo de la comunicación. Al principio del siglo
XX, el alemán Arthur Korn inventó la Bildtelegraph. Este físico creó este
sistema que se extendió rápidamente por la Europa continental. El objetivo
principal de este sistema en aquella época, fue especialmente, transmitir la
foto de una persona buscada de París a Londres en 1908. Para ello, se utilizaba
el más distribuido radiofax. Los principales competidores de este sistema en
aquel momento, eran los Bélinograf de Édouard Belin. Más adelante, en 1930 la
competencia más dura sería el Hellschreiber, inventado en 1929 por el inventor
Rudolf Hell. Este alemán fue un pionero en la exploración de la imagen mecánica
y la transmisión.
Evolución del Fax
La historia del fax empezó mucho tiempo atrás, y desde
entonces ha ido evolucionando y adaptándose al tiempo y a las nuevas
tecnologías de cada época. De todos los avances y nuevas tecnologías que se han
ido creando, Internet es la que seguramente ha supuesto mayor revolución en el
campo de la comunicación.
Con la llegada de Internet, el Fax ha sufrido
una evolución considerable. Pero la importancia de esta máquina también se
puede ver a través de la revolución. Y es que a presar de la llegada
de Internet, y de la gran evolución que supuso en el mundo de
las comunicaciones, no ha logrado sustituir al Faz.
En la actualidad, nos encontramos con el fax virtual o fax
por Internet. Este nuevo procedimiento, se basa en el mismo sistema de
transmisión de datos que el fax tradicional, mediante una línea telefónica, el
cambio se produce en los aparatos en los que se desarrolla este sistema de
transmisión. Ahora los aparatos tradicionales de fax han sido sustituidos por
plataformas Web o de correo electrónico. Este cambio, ha supuesto que haya una
menor distorsión en el envío y recepción, y la digitalización de todos los
documentos.
El nuevo Fax virtual, ha traído consigo muchísimas ventajas
en contraposición a lo que conocíamos anteriormente. El sistema tradicional se
ha sustituido por uno nuevo que permite reducir considerablemente el consumo de
papel o tinta y la necesidad de una máquina específica (lo que es cómodo y
bueno para el medioambiente). Además, son eficientes al permitir la gestión de
archivos electrónicos, y también son móviles al poder gestionar el servicio de
fax desde cualquier lugar donde tengas acceso a tu correo electrónico ya que lo
puedes realizar desde el teléfono móvil. Además son mejores para la economía,
ya que reducen los costes del servicio de fax en un 90% al incluir todo en un
pequeño coste mensual, la cuota del número y el servicio de fax.
Ademas de estas innovaciones, hoy en día existe el llamado
Fax virtual. Este servicio permite enviar y recibir fax por medio de internet
sin necesidad de utilizar la "máquina de fax".
HISTORIA DEL MODEN
El módem modula una señal sinusoidal de frecuencia
fija, llamada portadora a fin de poder transmitir los datos digitales. Toda señal sinusoidal puede ser modulada a
través de alteraciones en su frecuencia, fase o amplitud, o combinaciones de
las mismas.Como dijimos anteriormente, la red telefónica limita el rango de frecuencias permitidas para la transmisión a aquellas comprendidas por la banda vocal. Una de las primeras soluciones al problema fue la asignación de una frecuencia portadora de transmisión y otra de recepción. Dichas portadoras eran moduladas en frecuencia por la señal digital. Esto quiere decir que al transmitir un 1 se emitía una frecuencia y al transmitir un 0 otra. A esta técnica se la conoció como FSK (frecuency-shift Keying, codificación por cambio de frecuencia). Esta técnica se estandarizó bajo las normas v.21 de la CCITT y Belll03 de AT&T, las cuales transportaban 300 bits por segundo. Otra norma similar a la V.21 es la V.23. Una característica distintiva de esta norma es que es asimétrica, es decir, las velocidades de transmisión y recepción son distintas (1.200 y 75 bps respectivamente). Esto se hizo pensando en ampliaciones de terminales remotas donde la velocidad de tipeo en la terminal es mucho menor que la necesaria para llenar de datos una pantalla. Las terminales de videotexto francés, Minitel, utilizan esta norma.
El problema de FSK era que, al ser muy baja la frecuencia superior de la banda vocal, las velocidades que se obtenían eran escasas, no más de 300 bps. La solución, elevar la frecuencia de las portadoras, no era posible por las limitaciones de la red telefónica. En su reemplazo surgió otra tecnología: PSK (phase-shift Keying, codificación por cambio de fase). Esta técnica se basa en la transmisión de información a través de cambios en la fase de una señal portadora.
Otra técnica es la DPSK (diferencial PSK o PSK diferencial). En los modems modernos el DSP es el encargado de sintetizar tanto la señal transmitida como sus cambios de fase. También se encarga de la demodulación. El DSPK es utilizado por las normas V.22 (CCITT) y Bell212 (AT&T). En estas normas, las portadoras de transmisión y recepción se modulan a 600 cambios por segundo con 4 valores posibles, (2 bits), de donde se obtiene una velocidad de transmisión de 1.200 bps.
Si además de la fase, también variamos la amplitud de la señal, podremos obtener mas posibilidades de codificación (es decir mas bits por evento). Esta técnica se conoció como QAM (modulación por amplitud y cuadratura) y se utilizo en la norma V.22bis del CCITT. V22 bis especificaba 16 puntos, por lo que por cada evento podíamos transmitir 4 bits. Si las portadoras se modulaban a 600 cambios por segundo se obtenían 2.400 bps.
El problema ahora residía en que con frecuencias portadoras utilizadas, no se podían superar los 600 cambios por segundo. Para ello era necesario elevar la frecuencia de dichas portadoras, con el consiguiente problema de que se iban a ubicar en frecuencias muy próximas.
El CCITT resolvió el problema en la norma V.32 unificando las dos portadoras en una sola y elevando lo más posible su frecuencia. El problema ahora era que al tener una sola portadora y transmisión simultanea (también llamada full duplex), ambos modems la iban a modular al mismo tiempo, volviéndola inutilizable. Para resolver este problema se incorporo el mecanismo de cancelación de eco, es decir un módem suprime de la señal recibida la señal del otro módem. Este ultimo aspecto, dada la complejidad de las funciones a aplicar sobre las señales, fue el que genero la adopción de los DSP como única alternativa viable para modems de alta velocidad. Para V.32 entonces, se definió una constelación de 32 puntos (5 bits). Para una comunicación más confiable, se codificaron los bits de forma tal que de los cinco solo cuarto son de datos, Si la portadora se modula a 2.400 cambios, se obtiene un total de 9.600 bps.
Posteriores refinamientos a la norma dieron como resultado las normas V.32bis que utiliza QAM y codificación Trellis (TCQAM) para obtener seis bits de datos, dando una velocidad de transmisión de 14.400 bps. Existe un estándar de mercado no ratificado por el CCITT llamado V.32terbo, dando una velocidad de 19.200 bps, pero no tuvo mucho impacto.
Finalmente, hace dos años, el ITU-T (nueva denominación del CCITT, Unión Internacional de Telecomunicaciones) estandarizo la norma V.34, que permite la transmisión de 28.800 y 33.600 bps. Esta norma ha desplazado la V.32bis volviéndose la más popular de la actualidad.
En la tabla siguiente se resumen las distintas normas de modems del CCITT/ITU-T, agregando para su referencia las que comprenden a los fax. Como se observa en esta tabla, existen varias normas y velocidades de conexión, Los modems más modernos suelen ser compatibles con la gran mayoría de ella, aun las de fax.
A las normas de modulación se agregar normas de compresión de datos y de corrección de errores. La compresión de datos
nos permite transferir aun más información para una misma velocidad de transmisión y la corrección de errores nos brinda una transferencia de datos libre de error. Las primeras normas de este estilo fueron diseñadas por la firma Microcom y se las conoce como normas MNP (Protocolo Microcom de Redes). Sobre las normas MNP4 (corrección de errores) y MNP5 (compresión de datos) la CCITT elaboro las normas V.42, que define el protocolo de transmisión LAPM (Procedimiento de Acceso al Vinculo para Modems) para corrección de errores; y V.42bis para compresión de datos.
Norma
|
Modulación
|
Bit Rate(bps)
|
Baud Rate
|
Fax/Módem
|
V.17
V.21
V.22
V.22bis
V.23
V.26
V.26bis
V.26terbo
V.27
V.27bis
V.27terbo
V.29
V.32
V.32bis
V.32terbo
V.34
|
QAM
FSK
DPSK
QAM
FSK
PSK(full duplex)
PSK(half duplex)
PSK(full duplex)
PSK
PSK
PSK
PSK/QAM
QAM
TCQAM
TCQAM
TCQAM
|
7200-14400
300
1200
2400
1200/75
2400
2400
2400/1200
4800
4800/2400
4800/2400
96000/7200/4800
9600/4800
4800-14400
14400-19200
28800/33600h
|
7400
300
600
600
2100/1300
450/390
1200
1200
1200
1600
1600/1200
1600/1200
2400
2400
2400
2400
2400
|
FAX
MODEM
MODEM
MODEM
MODEM
MODEM
MODEM
MODEM
MODEM
FAX
FAX
MODEM
MODEM
MODEM
MODEM
|
HISTORIA DE DELINEADOR PLOTTER
La Evolución de una compañía líder
Roland DG fue fundada como una compañía subsidiaria de Roland Corporation
en Osaka (Japón) el 1 de mayo de 1981. Inicialmente, la compañía funcionaba
como un fabricante de periféricos musicales computarizados. Un año después de la
fundación, Roland DG Corporation presentó su primer plotter, el DXY-100. El
segundo logro es en 1988, cuando la compañía lanzó su primer plotter de corte.
La PNC-1000 introdujo a Roland DG Corporation de modo permanente en el mercado
de rotulación y signos.
Grandes éxitos
Poco después, Roland DG obtuvo un gran éxito con sus únicas impresoras /
cortadoras integradas. Esta tecnología licenciada causó una revolución en el
mercado de rótulos. Hasta hoy, Roland DG es líder del mercado de impresión
combinada y corte.
En el 2000, Roland DG Corporation obtuvo la certificación ISO y pasó a
cotizar en bolsa. Desde 2002, la compañía cotiza en la primera selección de
Tokio Stock Exchange.
Tres años más tarde, Roland DG introduce las tintas ECO-SOL. Esta fue la
primera tinta eco-solvente de la industria formulado para ser suave para los
usuarios y el medio ambiente. El mismo año, la compañía lanzó la VersaCAMM
SP-300 impresora / cortadora integrada, que estableció el estándar del sector
para el precio y el rendimiento. Esta máquina y sus sucesores se convirtieron
en los productos más vendidos de Roland DG.
Roland DG trajo la primera impresora / cortadora UV del mundo en el 2008.
El revolucionario VersaUV LEC-300 es elogiado en varios mercados por su
capacidad para imprimir la textura y el blanco en un soporte imposible (o
posible a calidad mediocre) de ser impresos antes.
Roland DG de nuevo tenía una primicia en 2009. La compañía lanzó la primera
inyección de tinta de impresora / cortadora del mundo con tinta de plata metálica.
Este 54 "(1,37 m) de ancho máquina también utiliza CMYK y blanco.
En 2010, Roland DG lanzó una serie de máquinas que se puede utilizar con
tinta metálica y blanca: la familia VS. El VS está disponible en anchos de 76cm
hasta 163cm.
Roland DG tuvo otra primicia en 2011. La empresa presentó el primer
escritorio impresora / cortadora del mundo con tinta metálica. La BN-20, de
52cm de ancho, se adapta perfectamente a cualquier entorno de oficina. Por otra
parte, Roland DG introdujo la LEF-12. Esta es una impresora UV de escritorio
que imprime directamente en objetos de hasta 10 cm de altura.
Switch
El switch es un aparato muy semejante al hub, pero tiene una gran diferencia: los datos
provenientes de la computadora de origen solamente son enviados al la
computadora de destino. Esto se debe a que los switchs crean una especie
de canal de comunicación exclusiva entre el origen y el destino. De esta forma, la
red no queda "limitada" a una única computadora en el envío de
información
. Esto aumenta la performance de la red ya que la comunicación está siempre
disponible, excepto cuando dos o más computadoras intentan enviar datos
simultáneamente a la misma máquina. Esta característica también
disminuye los errores (colisiones de paquetes de datos, por ejemplo). Así como en el
hub, un switch tiene varios puertos y la cantidad varía de la misma forma. Historia
A principios de la década
de 1980, Ethernet era una tecnología
consolidada que ofrecía una velocidad de 1 Mbits/s, mucho mayor que gran
parte de las alternativas de la época. Las redes Ethernet tenían una topología en bus, donde el medio físico de
transmisión
(cable coaxial) era compartido.
Ethernet era, por lo tanto, una red de difusión y como tal cuando dos
estaciones transmiten simultáneamente se producen colisiones y se desperdicia
ancho de banda en transmisiones fallidas.
El diseño de Ethernet no ofrecía escalabilidad, es decir, al aumentar el
tamaño de la red disminuyen sus prestaciones o el costo se hace inasumible. CSMA/CD, el protocolo que
controla el acceso al medio compartido en Ethernet, impone de por sí
limitaciones en cuanto al ancho de banda máximo y a la máxima distancia entre
dos estaciones. Conectar múltiples redes Ethernet era por aquel entonces
complicado, y aunque se podía utilizar un router para la interconexión, estos
eran caros y requería un mayor tiempo de procesado por paquete grande,
aumentando el retardo.
Para solucionar estos problemas, primero W. Kempf inventó el bridge
(puente), dispositivo software para interconectar dos LANs. En 1990 Kalpana
desarrolló el switch Ethernet, puente
multipuerto implementado en hardware, dispositivo de conmutación de tramas de
nivel 2. Usar switches para interconectar redes Ethernet permite
separar dominios de colisión, aumentando la eficiencia y la escalabilidad de la
red. Una red tolerante a fallos y con un nivel alto de disponibilidad requiere
que se usen topologías redundantes: enlaces múltiples entre switches y equipos
redundantes. De esta manera, ante un fallo en un único punto es posible recuperar
de forma automática y rápida el servicio. Este diseño redundante requiere la
habilitación del protocolo
spanning tree (STP) para asegurarse de que solo haya activo un camino lógico para ir de un
nodo a otro y evitar así el fenómeno conocido como tormentas broadcast. El principal
inconveniente de esta topología lógica de la red es que los switches
centrales se convierten en cuellos de botella, pues la mayor parte del tráfico
circula a través de ellos.
Sincoskie consiguió aliviar la sobrecarga de los switches
inventando LAN virtuales al añadir una etiqueta a las tramas Ethernet con la
que diferenciar el tráfico. Al definir varias LAN virtuales cada una de ellas
tendrá su propio spanning tree y se podrá asignar los distintos puertos de un switch
a cada una de las VLAN. Para unir VLAN que están definidas en varios switches
se puede crear un enlace especial llamado trunk, por el que fluye
tráfico de varias VLAN. Los switches sabrán a qué VLAN pertenece cada
trama observando la etiqueta VLAN (definida en la norma IEEE
802.1Q).
Aunque hoy en día el uso de LAN virtuales es generalizado en las redes Ethernet
modernas, usarlas para el propósito original puede ser un tanto extraño, ya que
lo habitual es utilizarlas para separar dominios de difusión (hosts que pueden ser alcanzados por una trama broadcast).
IEEE
802.1aq-2012
- Shortest Path
Bridging
ofrece mucha más escalabilidad a hasta 16 millones comparado con el límite de
4096 de las VLAN.
Routers
El router es un dispositivo utilizado en redes de mayor porte. Es más " inteligente" que el switch, pues, además de cumplir la misma función, también tiene la capacidad de escoger la mejor ruta que un determinado paquete de datos debe seguir para llegar a su destino. Es como si la red fuera una ciudad grande y el router elige el camino más corto y menos congestionado. De ahí el nombre de router.
El router es un dispositivo utilizado en redes de mayor porte. Es más " inteligente" que el switch, pues, además de cumplir la misma función, también tiene la capacidad de escoger la mejor ruta que un determinado paquete de datos debe seguir para llegar a su destino. Es como si la red fuera una ciudad grande y el router elige el camino más corto y menos congestionado. De ahí el nombre de router.
Existen básicamente dos tipos de routers:
Estáticos: este tipo es más barato y esta enfocado en elegir siempre el camino más corto para los datos, sin considerar si aquel camino tiene o no atascos;
Dinámicos: este es más sofisticado (y consecuentemente más caro) y considera si hay o no atascos en la red. Trabaja para hacer el camino más rápido, aunque sea el camino más largo. No sirve de nada utilizar el camino más corto si este está congestionado. Muchos de los routers dinámicos son capaces de realizar compresión de datos para elevar la tasa de transferencia.
Los routers son capaces de interconectar varias redes y
generalmente trabajan en conjunto con hubs y switchs. Suelen poseer recursos extras, como firewall, por
ejemplo.
Para quien desee montar una red pequeña, conectando, por ejemplo, tres computadoras, el uso de switchs es lo más recomendable ya que el precio de esos dispositivos son prácticamente equivalentes a los de los hubs.Si compartes internet de banda ancha, un switch puede proporcionar mayor estabilidad en las conexiones.
Un dato importante: al buscar hubs, switchs o incluso routers, siempre opta por marcas conocidas. Eso puede evitar problemas en el futuro.
La implementación de routers es utilizada generalmente en redes de empresas (redes corporativas). Además de ser más caros, también son más complejos para ser administrados y sólo deben ser utilizados si hay muchas computadoras en la red. Sin embargo, muchos usuarios con acceso a internet por ADSL logran usar sus modems como routers y así, comparten la conexión de internet con todas las computadoras de la red, sin que sea necesario dejar la computadora principal encendida. Basta dejar el módem/router activado.
Para quien desee montar una red pequeña, conectando, por ejemplo, tres computadoras, el uso de switchs es lo más recomendable ya que el precio de esos dispositivos son prácticamente equivalentes a los de los hubs.Si compartes internet de banda ancha, un switch puede proporcionar mayor estabilidad en las conexiones.
Un dato importante: al buscar hubs, switchs o incluso routers, siempre opta por marcas conocidas. Eso puede evitar problemas en el futuro.
La implementación de routers es utilizada generalmente en redes de empresas (redes corporativas). Además de ser más caros, también son más complejos para ser administrados y sólo deben ser utilizados si hay muchas computadoras en la red. Sin embargo, muchos usuarios con acceso a internet por ADSL logran usar sus modems como routers y así, comparten la conexión de internet con todas las computadoras de la red, sin que sea necesario dejar la computadora principal encendida. Basta dejar el módem/router activado.
Historia
El primer dispositivo que tenía fundamentalmente la misma funcionalidad que
lo que el día de hoy entendemos por encaminador, era el Interface Message
Processor o IMP. Los IMP eran los dispositivos que formaban la ARPANET, la primera red de
conmutación de paquetes. La idea de un encaminador (llamado por aquel entonces puerta de enlace ) vino inicialmente de
un grupo internacional de investigadores en redes de computadoras llamado el International
Network Working Group (INWG). Creado en 1972 como un grupo informal para
considerar las cuestiones técnicas que abarcaban la interconexión de redes
diferentes, se convirtió ese mismo año en un subcomité del International
Federation for Information Processing.
Esos dispositivos se diferenciaban de los conmutadores de paquetes que
existían previamente en dos características. Por una parte, conectaban tipos de
redes diferentes, mientras que por otra parte, eran dispositivos sin conexión,
que no aseguraban fiabilidad en la entrega de tráfico, dejando este rol
enteramente a los anfitriones. Esta última idea había sido ya planteada en la
red CYCLADES.
La idea fue investigada con más detalle, con la intención de crear un
sistema prototipo como parte de dos programas. Uno era el promovido por DARPA, programa que creó la
arquitectura TCP/IP que se usa actualmente,
y el otro era un programa en Xerox PARC para explorar nuevas tecnologías de
redes, que produjo el sistema llamado PARC Universal Packet. Debido a la
propiedad intelectual que concernía al proyecto, recibió poca atención fuera de
Xerox durante muchos años.
Un tiempo después de 1974, Xerox consiguió el primer encaminador funcional, aunque el
primer y verdadero enrutador IP fue desarrollado por Virginia Stazisar
en BBN, como parte de ese esfuerzo promovido por DARPA, durante 1975-76. A
finales de 1976, tres encaminadores basados en PDP-11 entraron en servicio en el
prototipo experimental de Internet.
El primer encaminador multiprotocolo fue desarrollado
simultáneamente por un grupo de investigadores del MIT y otro de Stanford en
1981. El encaminador de Stanford se le atribuye a William Yeager y el del MIT a
Noel Chiappa. Ambos estaban basados en PDP-11. Como ahora prácticamente todos
los trabajos en redes usan IP en la capa de red, los encaminadores multiprotocolo son en gran medida obsoletos, a pesar de que fueron importantes en las primeras etapas del crecimiento de las redes de ordenadores, cuando varios protocolos distintos de TCP/IP eran de uso generalizado. Los encaminadores que manejan IPv4 e IPv6 son
multiprotocolo, pero en un sentido mucho menos variable que un encaminador
que procesaba AppleTalk, DECnet, IP, y protocolos de XeroX.
Desde mediados de los años
1970 y en
los años 1980, los miniordenadores de
propósito general servían como enrutadores.
Actualmente, los encaminadores de alta velocidad están altamente
especializados, ya que se emplea un hardware específico para acelerar las funciones de encaminamiento
más específicas, como son el encaminamiento de paquetes y funciones especiales
como la encriptación IPsec.
Funcionamiento
El funcionamiento básico de un enrutador o encaminador, como se deduce de
su nombre, consiste en enviar los paquetes de red por el camino o ruta más
adecuada en cada momento. Para ello almacena los paquetes recibidos y procesa
la información de origen y destino que poseen. Con arreglo a esta información
reenvía los paquetes a otro encaminador o bien al anfitrión final, en una actividad que se
denomina 'encaminamiento'. Cada encaminador se encarga de decidir el siguiente
salto en función de su tabla de reenvío o tabla de encaminamiento, la cual se genera
mediante protocolos que deciden cuál es el camino más adecuado o corto, como
protocolos basado en el algoritmo de Dijkstra.
Por ser los elementos que forman la capa de red, tienen que encargarse de
cumplir las dos tareas principales asignadas a la misma:
- Reenvío de paquetes: cuando un paquete llega al enlace de entrada de un encaminador, éste tiene que pasar el paquete al enlace de salida apropiado. Una característica importante de los encaminadores es que no difunden tráfico difusivo.
- Encaminamiento de paquetes : mediante el uso de algoritmos de encaminamiento tiene que ser capaz de determinar la ruta que deben seguir los paquetes a medida que fluyen de un emisor a un receptor.
Por tanto, debemos distinguir entre reenvío y encaminamiento. Reenvío
consiste en coger un paquete en la entrada y enviarlo por la salida que indica
la tabla, mientras que por encaminamiento se entiende el proceso de hacer esa
tabla.
Arquitectura física
Representación simbólica de un
encaminador.
En un enrutador se pueden identificar cuatro componentes:
- Puertos de entrada: realiza las funciones de la capa física consistentes en la terminación de un enlace físico de entrada a un encaminador; realiza las funciones de la capa de enlace de datos necesarias para interoperar con las funciones de la capa de enlace de datos en el lado remoto del enlace de entrada; realiza también una función de búsqueda y reenvío de modo que un paquete reenviado dentro del entramado de conmutación del encaminador emerge en el puerto de salida apropiado.
- Entramado de conmutación: conecta los puertos de entrada del enrutador a sus puertos de salida.
- Puertos de salida: almacena los paquetes que le han sido reenviados a través del entramado de conmutación y los transmite al enlace de salida. Realiza entonces la función inversa de la capa física y de la capa de enlace que el puerto de entrada.
- Procesador de encaminamiento: ejecuta los protocolos de encaminamiento, mantiene la información de encaminamiento y las tablas de reenvío y realiza funciones de gestión de red dentro del enrutador.
Tipos de enrutamiento
Tanto los enrutadores como los anfitriones guardan una tabla de
enrutamiento. El daemon de enrutamiento de cada sistema actualiza la tabla con
todas las rutas conocidas. El núcleo del sistema lee la tabla de enrutamiento
antes de reenviar paquetes a la red local. La tabla de enrutamiento enumera las
direcciones IP de las redes que conoce el sistema, incluida la red local
predeterminada del sistema. La tabla también enumera la dirección IP de un
sistema de portal para cada red conocida. El portal es un sistema que puede
recibir paquetes de salida y reenviarlos un salto más allá de la red local.
Enrutamiento
estático
Hosts y redes de tamaño reducido que obtienen las rutas de un enrutador
predeterminado, y enrutadores predeterminados que sólo necesitan conocer uno o
dos enrutadores
Determinación
de enrutamiento
La información de enrutamiento que el encaminador aprende desde sus fuentes
de enrutamiento se coloca en su propia tabla de enrutamiento. El encaminadoor
se vale de esta tabla para determinar los puertos de salida que debe utilizar
para retransmitir un paquete hasta su destino. La tabla de enrutamiento es la
fuente principal de información del enrutador acerca de las redes. Si la red de
destino está conectada directamente, el enrutador ya sabrá el puerto que debe
usar para reenviar los paquetes. Si las redes de destino no están conectadas
directamente, el encaminador debe aprender y calcular la ruta más óptima a usar
para reenviar paquetes a dichas redes. La tabla de enrutamiento se constituye
mediante uno de estos dos métodos o ambos:
- Manualmente, por el administrador de la red.
- A través de procesos dinámicos que se ejecutan en la red.
Rutas
estáticas
Las rutas estáticas se definen administrativamente y establecen rutas
específicas que han de seguir los paquetes para pasar de un puerto de origen
hasta un puerto de destino. Se establece un control preciso de enrutamiento
según los parámetros del administrador.
Las rutas estáticas por defecto especifican una puerta de enlace de último
recurso, a la que el enrutador debe enviar un paquete destinado a una red que
no aparece en su tabla de enrutamiento, es decir, se desconoce.
Las rutas estáticas se utilizan habitualmente en enrutamientos desde una
red hasta una red de conexión única, ya que no existe más que una ruta de
entrada y salida en una red de conexión única, evitando de este modo la
sobrecarga de tráfico que genera un protocolo de enrutamiento. La ruta estática
se configura para conseguir conectividad con un enlace de datos que no esté
directamente conectado al enrutador. Para conectividad de extremo a extremo, es
necesario configurar la ruta en ambas direcciones. Las rutas estáticas permiten
la construcción manual de la tabla de enrutamiento.
Enrutamiento
dinámico
El enrutamiento dinámico le permite a los encaminadores ajustar, en tiempo
real, los caminos utilizados para transmitir paquetes IP.
No hay comentarios:
Publicar un comentario