domingo, 29 de noviembre de 2015

DISPOSITIVOS DE SALIDA DEL COMPUTADOR




Introducción

 

Al iniciar este trabajo lo hogo con el objetivo de adquirir los conocimientos necesarios sobre los distintos dispositivos de salida de un computador.

A continuación describiremos cada uno de estos dispositivos, su evolución y función de cada uno.




Historia de los monitores


El monitor es el principal periférico de salida de una computadora. Estos se conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo.


inCompartir0 La imagen que podemos observar en los monitores está formada por una matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un píxel.


Clasificación según estándares de monitores


Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes.


Monitores MDA:

Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.

Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios.

Características:

  • Sin modo gráfico.
  • Resolución 720_350 píxeles.
  • Soporte de texto monocromático.
  • No soporta gráfico ni colores.
  • La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
  • Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.

Monitor CGA:

Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM.

A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.

Características:

  • Resoluciones 160_200, 320×200, 640×200 píxeles.
  • Soporte de gráfico a color.
  • Diseñado principalmente para juegos de computadoras.
  • La tarjeta gráfica contenía 16 KB de memoria de vídeo.

Monitor EGA:

Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución.

EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características.

Características:

  • Resolución de 640_350 píxeles.
  • Soporte para 16 colores.
  • La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

Monitor VGA:

Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.

Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas.

Características:

  • Soporte de 720×400 píxeles en modo texto.
  • Soporte de 640×480 píxeles en modo gráfico con 16 colores.
  • Soporte de 320×200 píxeles en modo gráfico con 256 colores.
  • Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.

Monitor SVGA:

SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.

SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.

Características:

  • Resolución de 800×600, 1024_768 píxeles y superiores.
  • Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.

Clasificación según tecnología de monitores

En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.

 

Monitores CRT:Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.

Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.

Funcionamiento:

Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.

Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.

Ventajas:

  • Excelente calidad de imagen (definición, contraste, luminosidad).
  • Económico.
  • Tecnología robusta.
  • Resolución de alta calidad.

Desventajas:

  • Presenta parpadeo por el refrescado de imagen.
  • Consumo de energía.
  • Generación de calor.
  • Generación de radiaciones eléctricas y magnéticas.
  • Alto peso y tamaño.

Pantallas LCD:

A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.

Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.

Funcionamiento:

El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez.

Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no.

Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul.

Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros.

Ventajas:

  • Poco peso y tamaño.
  • Buena calidad de colores.
  • No contiene parpadeo.
  • Poco consume de energía.
  • Poca generación de calor.
  • No genera radiaciones eléctricas y magnéticas.

Desventajas:

  • Alto costo.
  • Angulo limitado de visibilidad.
  • Brillo limitado.
  • Bajo tiempo de respuesta de píxeles.
  • Contiene mercurio.

Pantallas Plasma:

La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.

Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad.


Funcionamiento:

El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado.

Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma.

El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible.

Ventajas:

  • Excelente brillo.
  • Alta resolución.
  • Amplio ángulo de visión.
  • No contiene mercurio.
  • Tamaño de pantalla elevado.

Desventajas:

  • Vida útil corta.
  • Coste de fabricación elevado, superior a los LCD.
  • Consumo de electricidad elevado.
  • Poca pureza del color.
  • Consumo energético y emisión de calor elevada.
¿Qué es la resolución de pantalla?
Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (“X”), el cual se coloca al principio y el número de filas (“Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:






Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo.

HISTORIA Y EVOLUCIÓN DE LA IMPRESORA


La creación de la impresora se remonta a la década de 1940 aproximadamente, con la creación de la primera computadora de la historia, la maquina analítica de Charles Babbage, aunque Babbage nunca termino de armar su computadora pero si termino los planos de ella y junto con el mecanismo de impresión  los mismos fueron utilizados para armar el modelo funcional en 1991 y presentarlo en 2000 al publico en el Museo de Ciencias de Londres, este modelo estaba formado por 4000 piezas mecánicas y pesar alrededor de 2,5 toneladas.

UNIVAC High Speed Printer



La primera impresora de alta velocidad llamada UNIVAC High Speed Printer (1953) diseñada por Remington-Rand para ser utilizada es un ordenador UNIVAC  la cual estaba compuesta de cuatro gabinetes, una fuente de alimentación, la máquina de impresión, un dispositivo de control y la comprobación, y un lector de cinta. Esta impresora de cinta alimentada produce seiscientas líneas de texto por minuto.

 

La primera impresora matricial (1957)

Es puesta a la venta por parte de IBM la primera impresora de matriz de punto. una impresora matricial o impresora de matriz de puntos es un tipo de impresora con una cabeza de impresión que se desplaza de izquierda a derecha sobre la pagina, imprimiendo por impacto, oprimiendo una cinta de tinta contra el papel, de forma similar al funcionamiento de una maquina de escribir.

 

La primera mini-impresora (1968)

En septiembre de 1968, Shinshu Seiki lanzo la primera mini-impresora del mundo, el EP-101, que pronto fue incorporada en muchas calculadoras. En los siguientes años, el nombre Epson fue acuñado después de que la generación siguiente del EP-101 fuera lanzado al público (el “Son of EP-101” se convirtió en “EP-SON” quedando en “Epson”).


Centronics Model 101 (1970)

La Centronics Model 101 fue presentada en la National Computer Conference de 1970. La cabeza de impresión usaba un innovador sistema de impacto mediante un solenoide de siete agujas. Basándose en este diseño, Centronics proclamo mas tarde haber desarrollado la primera Impresora Matricial.






Modelo IBM 3211 (1970)


El 30 de junio de 1970, la computadora IBM System/370 disponía de una impresora de alta velocidad, la IBM 3211, que había sido desarrollado por Endicott. Además de la fabricación de 3211, SMD Endicott es responsable de otros equipos periféricos utilizados con la IBM System/370, incluida la IBM 2821 modelo 6 unidad de control, e IBM 3210 modelo 1 y modelo 2 consola de impresora.


Láser Xerox (1971)

En 1938, Chester Carlson invento un proceso de impresión en seco llamado electrofotográfica Set, comúnmente llamado Xerox, la tecnología base para las futuras impresoras láser  El ingeniero de Xerox Gary Starkweather adopto la tecnología de copia de la impresora añadiéndole un haz de láser con el proceso de la xerografía para crear una impresora láser.

Láser Printer EARS

La primera impresora láser  llamada EARS, fue desarrollada en el Xerox Parc (Xerox Paro Alto Research Center) comenzando en 1969 y finalizando en noviembre de 1971.

 

La aparición de la impresora láser.

Xerox 9700 Electronic Printing System

El sistema de impresión electrónica, xerographica, Xerox 9700, es el primer producto con impresora láser Xerográfica. Fue comercializado en 1977. El Xerox 9700, es descendiente directo de la impresora original PARC “EARS”, que fue la pionera en la exploración del láser óptico, en la electrónica de generación de caracteres y en el software de formato página.

 

Hewlett Packard (1976)

En la década de los 70 se desarrolla la tecnología de inyección de tinta. Los investigadores tuvieron dificultades para crear un flujo controlado de tinta desde el cabezal de impresión a la página.

En 1976, la Hewlett Packad creo la primera impresora de inyección de tinta, pero solo fue hasta 1988 cuando llego a los hogares de los consumidores. Ofrecía una velocidad promedio de apenas 2 páginas por minuto.

Impresora de margarita (1978)

En 1978 se crea la impresora de margarita, que únicamente podía escribir letras y números, pero tenía calidad de máquina de escribir. Las impresoras margarita se basan en el principio de las máquinas de escribir. Una matriz en forma de margarita contiene “pétalos” y cada uno de estos posee un carácter en relieve.

 

Apple Computer – ImageWriter (1983-1984)

La primera imageWriter fue pensada para ser utilizada con el Apple II. Esta impresora podía producir tanto imágenes como el texto, hasta una resolución de 144 DPI y una velocidad de cerca de 120 CPS. En modo texto, la cabeza movía en ambas direcciones mientras que para imprimir gráficos la cabeza solamente se movía en una dirección.

 

Apple Computer – LaserWriter (1984-1986)

En 1984 Apple Computer crea un prototipo de impresora, la LaserWriter, fue un salto importante, ya que esta impresora una impresión de texto y gráficos con una calidad comparable a la de la imprenta profesional. Lo consiguieron gracias al uso de un lenguaje de descripción de página llamado adobe PostScript, con este lenguaje se imprimían textos y gráficos escalables de alta resolución.

 

HP- LaserJet Classic (1984)
En 1984, HP introdujo la primera impresora LaserJet en la feria COMDEX de las vegas, aquel modelo revolucionaria un mercado que acogió con timidez aquel primer modelo que de hecho, era complicado de usar porque no había software preparado para ella, pero que pronto comenzaría a valorar las ventajas de esta tecnología. La LaserJet Classic contaba nada menos que U$ 3.495 de la época.

RET & PCL 5 (1990)

Hawlett Packard presento en mayo de 1990 la tecnología RET (Resolution Enhancement Technology) que incrementaba dracticamente la calidad de impresión  ademas, gracias al PCL 5, los usuarios podían aumentar y disminuir el tamaño de las fuentes sencillamente. ello tuvo un gran efecto en el software de procesado de textos y marco un nuevo estándar en la industria, puesto que los usuarios ya no estaban limitados a utilizar únicamente los tamaños 10 y 12.

La primera impresora láser de menos de U$ 1000 (1990)

La LaserJet IIP fue lanzada en septiembre de 1990 y se convirtió en la primera impresora láser persona en bajar de los U$ 1000. La LaserJet  IIP ofrecía a los usuarios la misma calidad de impresión que su predecesora, la LaserJet II, pero a la mitad de precio y tamaño.

 

La primera impresora de Red (1991)

En marzo de 1991 HP lanzo la primera impresora con conectividad de red de área local, la LaserJet IIIsi. Los clientes podían conectar su impresora directamente a una red Ethernet o Token Ring a través del servidor de impresión HP JetDirect, que ofrecía un rendimiento superior, una mayor flexibilidad y permitía compartir la impresora en un grupo de trabajo. La LaserJet IIIsi fue también la primera impresora de HP en ofrecer Adobe PostScript, en contraposición a los cartuchos de fuente ofrecidos en anteriores modelos.

 

Apple Computer (1992)

En febrero de 1992, Apple Computer lanza la StyleWriter, incluyendo un driver que permitía utilizar la tecnología Apple IIgs System Software 6.

Impresora de comunicaciones Bidireccionales (1992)

La LaserJet 4, fue lanzada en octubre de 1992, fue la primera impresora de HP en soportar comunicaciones extensivas bidireccionales. Desde ese momento las impresoras de red se podían comunicar con los ordenadores y viceversa. Este hito permitió avances en la gestión de redes de impresoras. Ademas, la LaserJet 4 fue la primera en ofrecer una resolución de 600 ppp y utilizar toners microfino para una mayor calidad de imrpesion. También fue la primera LaserJet en incorporar fuentes TrueType, que asegura una total correspondencia entre las fuentes impresas y las mostradas en la pantalla.

Software JetAdmin y soporte de red multiprotocolo (1993)

Hp lanzo en abril de 1993 el software JetAdmin, el primer software de gestión de impresión basada en una GUI (Graphic User Interface), acompañando el lanzamiento de la LasrHet 4Si, Gracias a JetAdmin se podían instalar y gestionar varias impresoras de una red local desde el ordenador del administrador de red. Ademas, la LaserJet 4si fue la primera impresora con soporte JetDirect multiprotocolo, que permitía conectarse y procesar trabajos desde un PC, un MAC y redes UNIX.

 

MET y ahorro de energía (1993)

En mayo de 1993 se lanzo la LaserJet 4L, junto a ella se presento una nueva tecnología de HP, la MET (Memory Enhancement Technology), una solución económica que permitía a los usuarios guardar mas información ocupando menos memoria. Fue ademas la primera LaserJet que incluía un modo de ahorro de energía que apagaba automáticamente la maquina cuando no se estaba utilizando, con el consiguiente ahorro energético asociado. Poco después en febrero de 1994, las impresoras láser de HP obtuvieron la certificación Energy Star de la EPA (Enviromental Protection Agency).

 

Un nuevo estándar de rendimiento (1994)

HP elevo el estándar mundial de impresiones de las 8 ppm (paginas por minuto) a las 12 ppm con el lanzamiento de la LaserJet 4 Plus.

 

La primera impresora láser de formato apaisado (1994)

La LaserJet 4v fue la primera impresora de HP de formato apaisado, lanzada en septiembre de 1994, se convirtió en el referente en cuanto a precio y rendimiento para impresiones de 11×17.

La primera LaserJet Color (1994)

Hp entro en el mercado de la impresión láser color en septiembre de 1994 con la Color LaserJet, con un coste medio por pagina de menos de 10 céntimos  la Color LaserJet ofrecía a las empresas una alternativa económica a los centros de impresión  que cobraban U$ 1 o mas por cada copia a color. Ademas, el software ColorSmart simplificaba y optimizaba la impresora en color.

MIB & SNMP (1994)

En septiembre de 1994, HP contribuyo a ratificar un acuerdo sectorial para la utilización de los estándares de impresión en red MIB (Managed Information Base) y el protocolo Simple Network Management (SNMP). Ambos mejoraban la experiencia de impresión fuera cual fuera la impresora y la red utilizada.

La primera impresora láser con tecnología por infrarrojos (1995)

La LaserJet 5P, lanzada por HP en marzo de 1995 fue la primera impresora del mercado en incorporar tecnología inalámbrica por infrarrojos.

 

Apple Computer (1995)

En 1995, Apple Computer presenta la primera impresora láser a color, la Color Láser Printer 12/600PS. La impresora 600×600 PPP viene con 12 MB de RAM, utilizando un diseño canon, su precio ronda los U$ 7000.

 

Nuevos estándares en precios y calidad de impresión (1995)

Lanzada en septiembre de 1995, la LaserJet 5L fue la primera impresora de menos de U$500 y una resolución de 600×600 ppp.

Gestión avanzada del papel (1995)

La LaserJet 5L introdujo en noviembre de 1995 un gran avance en la impresión en red. Esta impresora incluía características avanzadas de gestión del papel como una bandeja para 2000 hojas y la capacidad de pagar y grapar documentos electrónicos  La LaserJet 5L incluía un paquete avanzado de software de gestión de impresión.

Image RET 1200 (1996)
HP lanzo la Color LaserJet 5 en marzo de 1996. El Image RET 1200, que utilizaba millones de colores sólidos el cual le otorgaba a la impresora una calidad de imagen sin precedentes.

PCL 6 (1996)

La LaserJet 5 Lanzo en abril de 1996. Fue la primera en incluir el PCL 6, un lenguaje mejorado de descripción de paginas que ofrecía una mayor velocidad de impresión  especialmente con documentos que incluían gráficos complejos.

La primera mopiadora del mercado (1996)

Una mopiadora es una impresora de red que permite a los usuarios imprimir múltiples copias originales (mopias). Las mopiadoras eliminan la necesidad de fotocopiar los documentos.

HP introdujo el primer dispositivo de este tipo, la LaserJet 5si Mopier en noviembre de 1996 su tecnología de transmisión reducía el trafico de red y daba a los
usuarios una respuesta mas rápida  La LaserJet 5si Mopier incorporaba también características de pegado y grabado electrónico.

 

JetSend, FastRes 1200, EIO y el tóner UltraPrecise (1997)

HP introdujo con la LaserJet 4000 una serie de tecnología punteras en noviembre de 1997. La mas importante de todas las JetSend, que permitían una comunicación directa entre impresoras, escaneres y otras aplicaciones.

Ademas, la LaserJet 4000 fue la primera impresora para grupos de trabajo con tecnología de fusor “instant-on”. Ademas, fue la primera impresora láser incorporar FastRes 1200, una tecnología capaz de ofrecer resoluciones de 1200 PPP sin merma de la calidad ni un uso abusivo de memoria.

La LaserJet 4000 fue también la primera impresora láser en soportar EIO (Enhanced Imput/Output), la segunda generación del interfaz de red de alto rendimiento de HP.

 

La primera impresora multifuncional para el gran publico (1998)

HP lanzo la LaserJet 3100 en abril de 1998. Fue el primer dispositivo láser multifuncion para el gran publico del mercado, una herramienta versátil que permitía a las empresas imprimir, fotocopiar, escanear y enviar faxes desde un mismo equipo.

 

La LaserJet 1100A,  lanzada en octubre de 1998, fue el primer dispositivo multifuncion en incorporar la tecnología JetPath, la cual eliminaba las limitaciones de velocidad y calidad de las fotocopias típicas de los dispositivos multifuncionales hasta la fecha.

La LaserJet mas rápida (1998)

HP lanzo en octubre de 1998 la LaserJet mas versátil y rápida hasta a fecha, la LaserJet 8100. Entre las muchas cualidades de producto destacaban las opciones de “Private Printing” y “Proof and Hold”. La primera de ellas permitía a los usuarios imprimir documentos de forma segura desde el panel de control; la segunda permitía imprimir una prueba de un documento antes de imprimir el resto.

 

Las primeras impresoras láser color con impresión a doble cara automática (1998)

HP lanzo en octubre de 1998 su ultima generación de impresoras láser color, la Color LaserJet 4500 y la Color LaserJet 8500. Fueron las primeras impresoras láser color en incorporar la impresión a doble cara. La Color LaserJet 4500 era una impresora láser color para pequeños grupos de trabajo mientras que la Color 8500 iba dirigida a departamentos mas grandes. Ambas podían trabajar con un amplio rango de papeles y tamaños.

Color LaserJet 4500

Color LaserJet 4500

 

 

 

 

Color LaserJet 8500

 

La primera impresora láser personal de 1200 ppp (1999)

La LaserJet 2100 fue la primera impresora láser personal en ofrecer una resolución de 1200×1200 ppp sin merma alguna de calidad. HP la lanzo en febrero de 1999.

 

Precio y rendimiento (1999)

La LaserJet 4050 se unió a la familia en mayo de 1999. Esta impresora fue lanzada 15 años después de la LaserJet Classic. Con un precio idéntico a la LaserJet 4000, la LaserJet 4050 ofrecía un mejor rendimiento, mayor versatilidad y un coste total de propiedad.

 

La primera copiadora de red con escaneado a doble cara (1999)

En octubre de 1998, HP lanzo la copiadora 320, la primera copiadora de red capaz de escanear de doble cara.

Primer driver de impresión universal (UPD) del mercado (2005)

En 2005, los técnicos de redes se preguntaban: ¿No estaría bien si se pudiera instalar y actualizar cualquier impresora con único software de gestión , en noviembre de 2005, HP lanzo el primer driver de impresión universal (UPD) diseñado por defecto.

2.000.000 de descargas del UPD (2007)

En febrero de 2007 se alcanzo la cifra de dos millones de descargas del driver de impresión universal (UPD) desde la web de HP, permitiendo a los usuarios y al departamento de TI gestionar de forma mas eficaz sus flotas de impresoras.

HP, color para todos (2008)

En marzo de 2008, la democratizacion total del color en el lugar de trabajo se hizo realidad con el lanzamiento de la LaserJet CP1215, la impresora láser mas barata de la historia.

 

“Como era de esperar, el más pequeño de la impresora HP LaserJet inspira las más grandes historias”

Historia de PARLATE O ALTOVOCE

Bose Corporation fue fundada en 1964 por el Dr. Amar G. Bose, entonces profesor de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts. Las investigaciones que el Dr. Bose llevó a cabo para su graduación en el MIT le llevaron a desarrollar nuevas tecnologías patentadas, y, animado por el MIT, acabó creando su propia compañía basándose en dichas patentes.

Bose Corporation se consolidó en 1968 con el lanzamiento del sistema de altavoces de sonido DIRECTO/REFLEJADO® 901®. Con este lanzamiento,
Bose alcanzó fama internacional al establecer un nuevo estándar para la reproducción de sonido natural. Y, desde entonces, la lista de destacadas tecnologías desarrolladas por Bose no ha dejado de crecer. Varios productos galardonados, como los sistemas de entretenimiento doméstico LIFESTYLE® y los productos WAVE®, han acabado con la creencia convencional de que existe una relación directa entre el tamaño y la complejidad de un sistema de audio y la calidad de sonido que produce.

Bose Corporation es una multinacional de capital privado con una cifra de ventas anual de 1,8 mil millones de dólares. Bajo el liderazgo del Dr. Bose, presidente y director técnico de la compañía, el cien por cien de los beneficios se reinvierten en crecimiento y desarrollo.

Filosofía de la compañía
El excepcionalmente alto grado de compromiso con la investigación que tiene Bose Corporation estimula a la compañía a alcanzar el objetivo esencial que persigue: desarrollar productos y tecnologías innovadores que mejoren la vida de la gente. Bose emplea grandes dosis de investigación y creatividad científica en el descubrimiento de nuevos conceptos y el desarrollo de nuevos productos. Es en este espíritu innovador y apasionado que la compañía se esfuerza por crear exclusivas experiencias que resulten edificantes y placenteras para sus clientes.

El modo en que Bose diseña sus altavoces y sistemas musicales se basa en el convencimiento de que los productos de audio existen para ofrecer un sonido natural a todos y en todas partes y que es el sonido, y no los equipos, lo que importa.

Desde sus comienzos, la compañía también ha empleado su talento y experiencia en materia de investigación en otras áreas, como la amplificación de potencia de fuentes conmutadas, equipos para pruebas biomédicas y suspensiones electromagnéticas para el automóvil.

Productos
Los primeros productos que Bose Corporation desarrolló fueron amplificadores de alta potencia, fabricados bajo contrato para el ejército estadounidense que deseaba convertir la alimentación por batería de sus aviones y submarinos en alimentación de corriente alterna. El primer producto para uso doméstico de Bose, el sistema de altavoces de sonido DIRECTO/REFLEJADO® 901®, se introdujo en el mercado en 1968 y recibió una gran acogida tanto a nivel internacional como por parte de los usuarios.

En 1972, Bose lanzó su primer altavoz profesional destinado a músicos avezados. A principios de los años 80, Bose revolucionó el mercado del audio para el automóvil con los primeros sistemas de sonido montados en fábrica y adaptados a cada modelo de coche.


Desarrollada en 1986, la tecnología patentada que emplean los auriculares Acoustic Noise Cancelling ® de Bose permite reducir espectacularmente los ruidos no deseados y ofrece un mayor rendimiento acústico a pilotos, personal militar y amantes de la música. Hoy en día, los productos Bose están presentes dondequiera que la calidad del sonido sea importante: desde los Juegos Olímpicos hasta la Capilla Sixtina, desde los transbordadores espaciales de la NASA hasta el Teatro Nacional de Japón, en hogares y en la carretera y en grandes estadios al aire libre y pequeños locales de barrio. Si desea obtener una lista completa o más información acerca de los productos Bose, visite www.bose.eu.

Las soluciones de audio para uso doméstico Bose® incluyen los sistemas de entretenimiento doméstico LIFESTYLE®, los productos WAVE®, los altavoces de sonido surround y estéreo ACOUSTIMASS®, altavoces para ordenador, altavoces exteriores y marinos e instalaciones domésticas personalizadas.

Los sistemas de sonido para el automóvil de Bose se instalan en la actualidad en las siguientes marcas de coches: Acura, Alfa Romeo, Audi, Buick, Cadillac, Chevrolet, Ferrari, GMC, Honda, Hummer, Infiniti, Lancia, Maserati, Maybach, Mazda, Mercedes, Nissan y Porsche.

Los auriculares y cascos con tecnología de reducción de ruidos de Bose incluyen los cascos para la aviación X, los auriculares Quietcomfort® 2 y Quietcomfort 3 con tecnología Acoustic Noise Cancelling® y los auriculares Triport®.

Los sistemas de sonido profesionales Bose® se personalizan para una gran variedad de instalaciones y negocios, como estadios, hoteles, centros comerciales, auditorios, lugares de culto, restaurantes, colegios y oficinas.

Los productos Bose destinados a músicos incluyen altavoces, amplificadores, controladores y la gama de productos PERSONALIZED AMPLIFICATION SYSTEM™.

Productos científicos de Bose: avanzados equipos de prueba ElectroForce™ para la investigación y el desarrollo de biomateriales y materiales de ingeniería.

 

HISTORIA DEL PROYECTOR

 

 

 

 

 

Historia del proyector.

 

Louis Lumiere, uno de los primeros inventores de imágenes en movimiento es citado con la siguiente frase: "El cine es un invento sin futuro". Y sin embargo, Lumier, junto a un número de "co-inventores" quienes aparecieron a lo largo de tres siglos, han hecho avances para un increíble futuro del cine. El proyector ha avanzado mucho desde este tiempo, y aún sus inicios no son menos imaginativos que las películas que vemos hoy en día.

La Linterna Mágica está reportada como el primer proyector, inventado en los años 1650 por un científico holandés llamado Christiaan Huygens. Las imágenes proyectadas eran emitidas hacia un diapositivas pintadas a mano dentro de una caja de madera. Se utilizaban palancas para cambiar las imágenes y dar la apariencia de movimiento. Los artistas utilizaban estas cajas en sus espaldas y vendían espectáculos en posadas y castillos. La fuente de luz para las imágenes era una linterna que producía una luz de color lima mediante el uso de piedra caliza, hidrógeno y oxígeno. Estas linternas venían en tamaños grandes y pequeños; algunas estaban equipadas con dos lentes para proyecciones en grandes salones. Los efectos de sonido para las presentaciones eran realizadas por los artistas y por músicos, con los miembros de la audiencia que se les unían. La Linterna Mágica sirvió como único método de imágenes en movimiento hasta la llegada de las "películas" hacia finales de la década de 1890.

Características

Se necesitó la invención de la cámara que utilizaba filme de papel para desatar la cadena de invenciones que derivarían en el proyector cinematográfico. En 1888, George Eastman hizo su descubrimiento y sacó al mercado la primera cámara Kodak. En el mismo año, Etienne Marey inventó una versión de cámara como las de Eastman que utilizaba tiras de papel para mostrar imágenes en movimiento. Thomas Edison, inventor del fonógrafo, asoció rápidamente la idea de la música continua con la de la de las imágenes en movimiento e intentó modelar un proyector tras la invención del fonógrafo. La idea no tuvo éxito, así que Edison - con mucha asistencia de su asistente William Dickson- prosiguieron en la invención de la cámara kinetográfica y la caja de visión kinetoscópica, modeladas según las invenciones de Eastman y Marey. Para 1893, Edison condujo su primera exhibición pública utilizando estos dispositivos. Esto tuvo lugar en 1893 en Black Maria - el primer estudio de producción del mundo - construido en los laboratorios subterráneos de Edison en West Orange, Nueva Jersey.

Función


Los proyectores de cine hasta este momento estaban compuestos por dos partes - el kinetoscópio y el kinetógrafo - y las películas sólo podían ser vistas por una persona a la vez. Las dos partes más los materiales para los filmes eran muy costosos para convertirse en un artículo lucrativo. La invención del cinematógrafo, por los hermanos Lumiere en 1894, combinaba las funciones de grabación y proyección en un mismo dispositivo. También se realizaron mejoras en cuando a cómo era cortado y cómo se colocaba en la máquina el material del filme. En 1895 se realizó la primera grabación con el cinematógrafo en París. Esta sería la primera vez que una película fue emitida ante un público que pagó por asistir, pudiendo verla todos a la vez.

Significancia

El personaje principal que introdujo la idea de imágenes en movimiento fue un fotógrafo británico llamado Eadweard Muybridge. El proyector praxinoscópico de Muybridge, inventado en 1890, sirvió como precursor para los éxitos de Edison y Lumiere. Su dispositivo fue el primero en "construir" movimiento en los filmes utilizando imágenes múltiples sucesivas. Su invención combinaba imágenes de 12 cámaras alineadas en fila, grabando los movimientos de los cascos de un caballo sobre el suelo.

Potencial

Mientras que cada fase sucesiva del desarrollo del proyector nos ha conducido hacia la experiencia cinematográfica que poseemos hoy en día, sólo pocos de estos descubrimientos pasados son conservados aún en su forma original. El Bucle de Latham es uno de ellos. El Mayor Woodville Latham, en un intento de comercializar una de sus propias versiones del proyector, proveyó de un mecanismo que pasaba el filme por el proyector. Esto permitió el desarrollo de películas que durasen más de tres minutos. Las cámaras y proyectores de hoy en día utilizan el Bucle de Lantham. Los hermanos Lumiere también introdujeron la cinta de 35mm que se utiliza hoy en día, como parte de su conversión del kinetógrafo en el cinematógrafo. Sigue siendo el estándar utilizar esta película en el cine y en la fotografía.

 

Auriculares


 

Los auriculares[1] (también conocidos como audífonos[2] o cascos [3] ) son transductores que reciben una señal eléctrica originada desde una fuente electrónica (como por ejemplo una radio, sintoamplificador o reproductor de audio) que por su diseño permiten colocar cerca de los oídos unos altavoces para generar ondas sonoras audibles.[4]

Los auriculares son normalmente desmontables e intercambiables, es decir, que pueden enchufarse o desenchufarse con facilidad del equipo que los requiere, y que los mismos auriculares pueden ser usados por diversos sistemas de audio.

En el contexto de las telecomunicaciones, los auriculares se refieren a un tipo de aparato que refiere a una combinación de auriculares y micrófono para la comunicación bidireccional. Por ejemplo, un teléfono móvil.

  •  

Historia[editar]


Los auriculares iniciaron su uso a partir de la telefonía y la radio. Las señales eléctricas débiles de los tempranos instrumentos eléctricos (todavía no electrónicos) requerían de una amplificación personalizada para el ámbito de la telefonía.

A la empresa Beyerdynamic se le atribuye oficialmente el invento, a finales de los años 1930, y como la primera empresa en vender auriculares al público en general: modelo DT48 en 1937.[5]

Su uso se masificó a partir del surgimiento de los sistemas de audio personales: radios portátiles y reproductores portátiles de casete; posteriormente el fenómeno se acrecentó con el uso del reproductor de CD, el reproductor de audio digital, y la computadora personal.

Con el avance de la electrónica se han incorporando el receptor de radio AM/FM; y han adquirido otras capacidades como la comunicación inalámbrica (por medio de infrarrojos, Bluetooth, o Wi-Fi) para recibir señales de una unidad base.

Tipos[editar]


Por posición relativa al oído, se suelen clasificar en:[6]

  • Circumaurales: rodean completamente la oreja. Estos auriculares, cuando son cerrados, permiten el aislamiento sonoro casi por completo del sujeto que escucha. Asimismo impiden que el sonido reproducido salga al exterior, por eso sus aplicaciones suelen estar más dedicadas al campo profesional, como monitorización de amplificación en vivo (típicamente operación de consola de mezcla en recitales) o mezcla para DJs en clubes. La principal característica de estos dos tipos, es que, al estar ligeramente separados del oído generan una mayor sensación natural del campo estéreo y una reproducción de frecuencias más lineal y precisa.

 

Auriculares circumaurales

  • Supraaurales: Los altavoces cubren la mayor parte del pabellón auditivo. Siendo este diseño el estándar en sonido Hi-Fi domésticos, pero también en los sistemas de mezcla profesional. Son "portátiles" por ser más ligeros y menos voluminosos que los circumaurales.

Auriculares supraaurales

  • Intraurales o intrauriculares: Son pequeños auriculares, aproximadamente del tamaño de un botón que se introducen dentro del canal auditivo, y permiten al oyente un mayor aislamiento, movilidad, y confort subjetivo (la sensación de comodidad difiere según el usuario). Su mayor defecto es que el sonido parece que viniera del interior de la cabeza, por lo que se pierde la sensación auditiva natural, en la que el sonido llega del exterior. También por su tamaño ofrece menor rendimiento sonoro que un dispositivo de mayor tamaño. Su uso esta generalizadamente extendido para la escucha de reproductores portátiles (reproductor MP3, reproductor MP4).

 

Auriculares intrauriculares

Según el mecanismo de soporte:[6]

  • Diadema: los auriculares van acoplados en los extremos de una diadema. Los hay de diversos tipos de materiales y formas. Los más comunes suelen ser de plástico y metal acolchados.
  • In-ear: Se insertan en el canal auditivo y logran bloquear el sonido externo mediante gomas o siliconas que se amoldan a cada usuario. Están entre los más transportables, pero también los que llegan de forma más directa al oído interno, por lo que el perjuicio puede ser mayor.
  • Buds:Se colocan en el oído externo y están más alejado del interno que los in-ear, por lo que es un punto medio entre estos y los de diadema. Son tal vez los más utilizados ya que suelen venir acompañando a los reproductores de música y a los teléfonos móviles.
  • Clip-ear: Son prácticamente iguales que los buds o los in-ear, con la diferencia de que cuentan con una estructura, en general plástica o de silicona, para colocarlos alrededor de la oreja. Son ideales para salir a correr, para el gimnasio u otras actividades ya que no se salen con facilidad.
  • Back-Neck, Behind The Neck, Neckband: Similares a los 'clip-ear', pero además cuentan una cinta que va por la nuca y comprime los auriculares hacia la cabeza.

Si llevan micrófono puede ser:

  • Headset: de tipo diadema, normalmente el micrófono va acoplado a uno de los auriculares en forma de brazo articulado. Suelen usarse en entornos profesionales, aviación, gamers...
  • Earset: intraauriculares, normalmente el micrófono va acoplado en el cable. Son los que hoy en día se usan con los teléfonos móviles.

Por el principio de funcionamiento:

  • Electrodinámicos: son los más utilizados. Tienen buena reproducción de agudos y son económicos.
  • Electrostáticos: tienen buena respuesta en frecuencia.
  • Piezoeléctricos: se usan para equipos pequeños (ayuda para la sordera, etc.).

Por el conexionado:

  • Cableados
  • Inalámbricos
    • Infrarrojos
    • Radiofrecuencia
    • Bluetooth

Vocabulario


La cancelación de ruido, por su traducción al español, es una característica parcialmente nueva que podemos encontrar en algunos modelos. Básicamente lo que generan es que, al colocarse los auriculares, no se escuche absolutamente nada de lo que está sucediendo alrededor y se pueda concentrar exclusivamente en la música.

Esta tecnología es buena para DJs o para escuchar música en entornos muy ruidosos. En algunos diseños es posible activar o desactivar esta función. Casi todos estos modelos se alimentan de pilas para hacer funcionar la cancelación de ruido.

Frecuencia

Se trata del rango de sonidos que puede desplegar el auriculares. Se mide en hercios e incluye desde las frecuencias más altas hasta los bajos más profundos. Normalmente encontrarás un rango compatible con cada modelo, por ejemplo 18 Hz a 30 000 Hz. Cuanto más grande sea el rango mejor, así se logra mayor sensibilidad en graves y agudos. Como referencia, el ser humano puede escuchar frecuencias de entre 20 Hz y 20 000 Hz.

Impedancia

Es la resistencia al paso de corriente eléctrica; a menor impedancia, mayor volumen, por lo que se pueden hacerlos funcionar
apropiadamente con fuentes de corriente pequeñas como el iPod (impedancias de 60 ohmios o menores). Si la impedancia es grande, por encima de 100 ohmios, se deberá usar un amplificador de audio.

Decibelios

El decibelio es la unidad con la que se mide la intensidad de sonido. Más decibelios significa mayor volumen del sonido. Casi todos los auriculares soportan hasta 100 dB.

El uso de auriculares a su vez puede producir cambios en la salud humana si se usan con un volumen muy alto de sonido. Se recomienda no exceder los 110 dB en el uso habitual para evitar problemas de oído.

Beneficios y limitaciones[editar]


Los auriculares se utilizan para evitar que otras personas puedan o tengan que escuchar el sonido, como en sitios públicos, bibliotecas, etcétera o para el aislamiento. Además, los auriculares pueden proporcionar una calidad de sonido superior a la mayoría de los altavoces, incluso de alta gama. Esto es especialmente notable en frecuencias bajas, donde en sistemas de altavoces domésticos es necesario el uso de un subwoofer, e incluso subwoffers de alta calidad pueden tener distorsiones en frecuencias muy bajas (en el caso de los auriculares es mucho menos común a frecuencias muy bajas como 20 Hz).

Los auriculares también permiten un avanzado sistema de posicionamiento 3D de audio, muy usado en el cine y sobre todo en videojuegos, donde se puede juzgar la posición a partir de las fuentes de sonido (como los pasos de un enemigo) antes de aparecer en pantalla. Sin embargo, hay que destacar que el posicionamiento de sonido tridimensional está mucho más avanzado en el caso de sistemas de sonido 5.1 y 7.1. Para recrear un efecto similar con auriculares se utiliza la holofonía, sistema de audio que recrea casi a
la perfección cualquier ambiente sonoro. Sin embargo es muy poco utilizado, debido a la necesidad de grabar las fuentes de sonido con micrófonos especiales y por tanto, imposible de realizar en tiempo real. Esto hace que muchas veces la mayoría de grabaciones que se escuchan sean grabadas en un estéreo diseñado para altavoces, que crean el efecto sonoro donde el sonido proviene del "centro de la cabeza" del oyente. Para simular los efectos tales como la reverberación de una estancia o sonidos que provienen de la parte de atrás es necesario recrear dichas condiciones en la propia grabación, ya que los auriculares, al ir directamente al oído, no crean por sí mismos dichos efectos. Las grabaciones binaurales (las utilizadas para las Holofonía precisamente sirven para eso, pero por las razones antes mencionadas son poco comunes en el cine y música.

Peligros


Usar los auriculares en un nivel de volumen suficientemente alto puede causar el deterioro, y/o la sordera temporal o permanente de oído debido a un efecto llamado enmascarar. El volumen del auricular tiene que competir con el ruido de fondo, especialmente en lugares excesivamente ruidosos tales como estaciones del subterráneo, aviones, y grandes multitudes. Esto conduce a la aparición del dolor normal asociado a niveles más altos de volúmenes, y los períodos prolongados del volumen excesivamente ruidosos son extremadamente perjudiciales.
En estos últimos años, el interés netamente se ha centrado de nuevo en la protección de la audición, y las compañías han respondido. Por ejemplo, la AVLS de Sony corrige diferencias en volúmenes de la pista mientras se están reproduciendo, y el chequeo de los sonidos de Apple normaliza los volúmenes máximos de pistas seleccionadas en iTunes. Al igual la nueva tecnología de la marca Beats ha desarrollado sistemas de protección extensiva para el oído, creando límites de DB. También, uno puede manipular las etiquetas de
volumen del archivo MP3; este método se debe hacer manualmente por el usuario por medio de software de terceros.
El gobierno francés ha impuesto un límite ante todos los reproductores de música vendidos en el país: no deben ser capaces de producir más de 100 dB (el umbral de daño de la audición durante su uso extendido es 80 dB, y el umbral del dolor, o de la pérdida de oído inmediata, es 130 dB).
 
Otros riesgos se presentan por el conocimiento reducido de sonidos externos —algunas jurisdicciones regulan el uso de auriculares mientras se conducen vehículos, limitando generalmente el uso de auriculares a un solo oído. También suelen limitar el volumen del sonido.
Historia del Fax: origen y evolución
 
Conoce uno de las tecnologías que cambio el mundo. Historia del Fax, su origen y evolución.
 
Historia del Fax: origen y evolución
Hoy en día, todos conocemos el Fax. Esta valiosa máquina, nos ha ayudado muchas veces en nuestra vida cotidiana, sobre todo en lo que respecta a nuestra faceta profesional. La historia del Fax es más antigua de lo que quizás piensas, y aquí puedes conocer sus orígenes y evolución hasta hoy.
Introducción al mundo del Fax

El Fax (facsímil) o también llamado telecopia, trata de la “transmisión telefónica de material escaneado impreso (tanto texto como imágenes), normalmente a un número de teléfono conectado a una impresora o a otro dispositivo de salida. El documento original es escaneado con una máquina de fax, que procesa los contenidos (texto o imágenes) como una sola imagen gráfica fija, convirtiéndola en un mapa de bits, la información se transmite como señales eléctricas a través del sistema telefónico. El equipo de fax receptor reconvierte la imagen codificada, y la imprime en papel.1 Antes del triunfo de la tecnología digital, durante muchas décadas, los datos escaneados se transmitieron como señal analógica”. Una descripción bastante acertada, para que todos podamos entender que es realmente que es este aparato, antes de entrar a conocer la historia del Fax.
 
Partes de un fax
En esencia, un fax se compone de un escáner de imágenes, un módem y una impresora combinados en un aparato especializado. La tarea del escáner, es “convertir el documento original en una imagen digital; mientras el módem envía la imagen por la línea telefónica; al otro lado, otro módem lo recibe y lo envía a la impresora, que hace una copia del documento original”.
Utilidad
Al principio de la historia del fax, este solo se usaba en el mundo del periodismo. La eficiencia y el afán de modernización de esta máquina, también la hicieron realmente atractiva en el ámbito de los negocios.
Hoy en día, el uso del Fax ha disminuido, ya que Internet y el correo electrónico se han impuesto en estos sectores. Aun así, sigue siendo muy usado en campos como la sanidad, las finanzas o las compañías de seguros (propuestas, partes amistosos de accidentes, facturas, notas a mano de inspectores y peritos...) entre otras.
Es interesantes que sepas, que al fax se le concede valor legal. “En España, 'Correos' ofrece servicios de fax y además el servicio burofax, por lo que es usado en la formalización y cancelación de contratos, y presenta la ventaja de no ser crackeable”.
Origen del Fax
 
El inventor de este aparato fue el escocés Alexander Bain. Este gran inventor, trabajó con anterioridad en en los dispositivos mecánicos de productos químicos de tipo fax. Sería en 1846, cuando Bain fue capaz de reproducir signos gráficos en experimentos de laboratorio. En el año 1843, ya había recibido la patente de fax por primera vez.
Frederick Bakewell sería quien culminaría el invento de Bain. Bakewell, realizó algunas mejoras sobre el diseño que había hecho Bain años antes, lo que dio como resultado una máquina de Fax. Un poco después, llegaría el físico italiano Giovanni Casell, quien invento el Pantelegraph. Castell fue el encarga de introducir el primer servicio comercial de fax entre París y Lyon en 1865, lo cual se dio 11 años antes de la invención del teléfono. Ya podéis ver que fue un gran avance.
Ya en el año 1881, Shelford Bidwell construyó el scanning phototelegraph (escáner fototelegráfico). Este inglés,  inventó la primera máquina de fax capaz de escanear cualquier original bidimensional manualmente, sin requerir trazar o dibujar. Algo realmente innovador para la época, que traería grandes avances en el mundo de la comunicación. Al principio del siglo XX, el alemán Arthur Korn inventó la Bildtelegraph. Este físico creó este sistema que se extendió rápidamente por la Europa continental. El objetivo principal de este sistema en aquella época, fue especialmente, transmitir la foto de una persona buscada de París a Londres en 1908. Para ello, se utilizaba el más distribuido radiofax. Los principales competidores de este sistema en aquel momento, eran los Bélinograf de Édouard Belin. Más adelante, en 1930 la competencia más dura sería el Hellschreiber, inventado en 1929 por el inventor Rudolf Hell. Este alemán fue un pionero en la exploración de la imagen mecánica y la transmisión.
Evolución del Fax
 
La historia del fax empezó mucho tiempo atrás, y desde entonces ha ido evolucionando y adaptándose al tiempo y a las nuevas tecnologías de cada época. De todos los avances y nuevas tecnologías que se han ido creando, Internet es la que seguramente ha supuesto mayor revolución en el campo de la comunicación.
Con la llegada de Internet, el Fax ha sufrido una evolución considerable. Pero la importancia de esta máquina también se puede ver a través de la revolución. Y es que a presar de la llegada
de Internet, y de la gran evolución que supuso en el mundo de las comunicaciones, no ha logrado sustituir al Faz.
En la actualidad, nos encontramos con el fax virtual o fax por Internet. Este nuevo procedimiento, se basa en el mismo sistema de transmisión de datos que el fax tradicional, mediante una línea telefónica, el cambio se produce en los aparatos en los que se desarrolla este sistema de transmisión. Ahora los aparatos tradicionales de fax han sido sustituidos por plataformas Web o de correo electrónico. Este cambio, ha supuesto que haya una menor distorsión en el envío y recepción, y la digitalización de todos los documentos.
El nuevo Fax virtual, ha traído consigo muchísimas ventajas en contraposición a lo que conocíamos anteriormente. El sistema tradicional se ha sustituido por uno nuevo que permite reducir considerablemente el consumo de papel o tinta y la necesidad de una máquina específica (lo que es cómodo y bueno para el medioambiente). Además, son eficientes al permitir la gestión de archivos electrónicos, y también son móviles al poder gestionar el servicio de fax desde cualquier lugar donde tengas acceso a tu correo electrónico ya que lo puedes realizar desde el teléfono móvil. Además son mejores para la economía, ya que reducen los costes del servicio de fax en un 90% al incluir todo en un pequeño coste mensual, la cuota del número y el servicio de fax.
Ademas de estas innovaciones, hoy en día existe el llamado Fax virtual. Este servicio permite enviar y recibir fax por medio de internet sin necesidad de utilizar la "máquina de fax".



HISTORIA DEL MODEN
El módem modula una señal sinusoidal de frecuencia fija, llamada portadora a fin de poder transmitir los datos digitales. Toda señal sinusoidal puede ser modulada a través de alteraciones en su frecuencia, fase o amplitud, o combinaciones de las mismas.
Como dijimos anteriormente, la
red telefónica limita el rango de frecuencias permitidas para la transmisión a aquellas comprendidas por la banda vocal. Una de las primeras soluciones al problema fue la asignación de una frecuencia portadora de transmisión y otra de recepción. Dichas portadoras eran moduladas en frecuencia por la señal digital. Esto quiere decir que al transmitir un 1 se emitía una frecuencia y al transmitir un 0 otra. A esta técnica se la conoció como FSK (frecuency-shift Keying, codificación por cambio de frecuencia). Esta técnica se estandarizó bajo las normas v.21 de la CCITT y Belll03 de AT&T, las cuales transportaban 300 bits por segundo. Otra norma similar a la V.21 es la V.23. Una característica distintiva de esta norma es que es asimétrica, es decir, las velocidades de transmisión y recepción son distintas (1.200 y 75 bps respectivamente). Esto se hizo pensando en ampliaciones de terminales remotas donde la velocidad de tipeo en la terminal es mucho menor que la necesaria para llenar de datos una pantalla. Las terminales de videotexto francés, Minitel, utilizan esta norma.
El problema de FSK era que, al ser muy baja la frecuencia superior de la banda vocal, las velocidades que se obtenían eran escasas, no más de 300 bps. La solución, elevar la frecuencia de las portadoras, no era posible por las limitaciones de la red telefónica. En su reemplazo surgió otra
tecnología: PSK (phase-shift Keying, codificación por cambio de fase). Esta técnica se basa en la transmisión de información a través de cambios en la fase de una señal portadora.
Otra técnica es la DPSK (diferencial PSK o PSK diferencial). En los modems modernos el DSP es el encargado de sintetizar tanto la señal transmitida como sus cambios de fase. También se encarga de la demodulación. El DSPK es utilizado por las normas V.22 (CCITT) y Bell212 (AT&T). En estas normas, las portadoras de transmisión y recepción se modulan a 600 cambios por segundo con 4
valores posibles, (2 bits), de donde se obtiene una velocidad de transmisión de 1.200 bps.
Si además de la fase, también variamos la amplitud de la señal, podremos obtener mas posibilidades de codificación (es decir mas bits por evento). Esta técnica se conoció como QAM (modulación por amplitud y cuadratura) y se utilizo en la norma V.22bis del CCITT. V22 bis especificaba 16 puntos, por lo que por cada evento podíamos transmitir 4 bits. Si las portadoras se modulaban a 600 cambios por segundo se obtenían 2.400 bps.
El problema ahora residía en que con frecuencias portadoras utilizadas, no se podían superar los 600 cambios por segundo. Para ello era necesario elevar la frecuencia de dichas portadoras, con el consiguiente problema de que se iban a ubicar en frecuencias muy próximas.
El CCITT resolvió el problema en la norma V.32 unificando las dos portadoras en una sola y elevando lo más posible su frecuencia. El problema ahora era que al tener una sola portadora y transmisión simultanea (también llamada full duplex), ambos modems la iban a modular al mismo
tiempo, volviéndola inutilizable. Para resolver este problema se incorporo el mecanismo de cancelación de eco, es decir un módem suprime de la señal recibida la señal del otro módem. Este ultimo aspecto, dada la complejidad de las funciones a aplicar sobre las señales, fue el que genero la adopción de los DSP como única alternativa viable para modems de alta velocidad. Para V.32 entonces, se definió una constelación de 32 puntos (5 bits). Para una comunicación más confiable, se codificaron los bits de forma tal que de los cinco solo cuarto son de datos, Si la portadora se modula a 2.400 cambios, se obtiene un total de 9.600 bps.
Posteriores refinamientos a la norma dieron como resultado las normas V.32bis que utiliza QAM y codificación Trellis (TCQAM) para obtener seis bits de datos, dando una velocidad de transmisión de 14.400 bps. Existe un estándar de
mercado no ratificado por el CCITT llamado V.32terbo, dando una velocidad de 19.200 bps, pero no tuvo mucho impacto.
Finalmente, hace dos años, el ITU-T (nueva denominación del CCITT, Unión Internacional de
Telecomunicaciones) estandarizo la norma V.34, que permite la transmisión de 28.800 y 33.600 bps. Esta norma ha desplazado la V.32bis volviéndose la más popular de la actualidad.
En la tabla siguiente se resumen las distintas normas de modems del CCITT/ITU-T, agregando para su referencia las que comprenden a los
fax. Como se observa en esta tabla, existen varias normas y velocidades de conexión, Los modems más modernos suelen ser compatibles con la gran mayoría de ella, aun las de fax.
A las normas de modulación se agregar normas de compresión de datos y de corrección de errores. La compresión de datos
nos permite transferir aun más información para una misma velocidad de transmisión y la corrección de errores nos brinda una transferencia de datos libre de error. Las primeras normas de este estilo fueron diseñadas por la firma Microcom y se las conoce como normas MNP (
Protocolo Microcom de Redes). Sobre las normas MNP4 (corrección de errores) y MNP5 (compresión de datos) la CCITT elaboro las normas V.42, que define el protocolo de transmisión LAPM (Procedimiento de Acceso al Vinculo para Modems) para corrección de errores; y V.42bis para compresión de datos.


Norma

Modulación

Bit Rate(bps)

Baud Rate

Fax/Módem

V.17

V.21

V.22

V.22bis

V.23

V.26

V.26bis

V.26terbo

V.27

V.27bis

V.27terbo

V.29

V.32

V.32bis

V.32terbo

V.34

QAM

FSK

DPSK

QAM

FSK

PSK(full duplex)

PSK(half duplex)

PSK(full duplex)

PSK

PSK

PSK

PSK/QAM

QAM

TCQAM

TCQAM

TCQAM

7200-14400

300

1200

2400

1200/75

2400

2400

2400/1200

4800

4800/2400

4800/2400

96000/7200/4800

9600/4800

4800-14400

14400-19200

28800/33600h

7400

300

600

600

2100/1300

450/390

1200

1200

1200

1600

1600/1200

1600/1200

2400

2400

2400

2400

2400

FAX

MODEM

MODEM

MODEM

 

MODEM

MODEM

MODEM

MODEM

MODEM

FAX

FAX

MODEM

MODEM

MODEM

MODEM


 

HISTORIA DE DELINEADOR PLOTTER


La Evolución de una compañía líder


Roland DG fue fundada como una compañía subsidiaria de Roland Corporation en Osaka (Japón) el 1 de mayo de 1981. Inicialmente, la compañía funcionaba como un fabricante de periféricos musicales computarizados. Un año después de la fundación, Roland DG Corporation presentó su primer plotter, el DXY-100. El segundo logro es en 1988, cuando la compañía lanzó su primer plotter de corte. La PNC-1000 introdujo a Roland DG Corporation de modo permanente en el mercado de rotulación y signos.

Grandes éxitos


Poco después, Roland DG obtuvo un gran éxito con sus únicas impresoras / cortadoras integradas. Esta tecnología licenciada causó una revolución en el mercado de rótulos. Hasta hoy, Roland DG es líder del mercado de impresión combinada y corte.

En el 2000, Roland DG Corporation obtuvo la certificación ISO y pasó a cotizar en bolsa. Desde 2002, la compañía cotiza en la primera selección de Tokio Stock Exchange.

Tres años más tarde, Roland DG introduce las tintas ECO-SOL. Esta fue la primera tinta eco-solvente de la industria formulado para ser suave para los usuarios y el medio ambiente. El mismo año, la compañía lanzó la VersaCAMM SP-300 impresora / cortadora integrada, que estableció el estándar del sector para el precio y el rendimiento. Esta máquina y sus sucesores se convirtieron en los productos más vendidos de Roland DG.

 

Roland DG trajo la primera impresora / cortadora UV del mundo en el 2008. El revolucionario VersaUV LEC-300 es elogiado en varios mercados por su capacidad para imprimir la textura y el blanco en un soporte imposible (o posible a calidad mediocre) de ser impresos antes.

Roland DG de nuevo tenía una primicia en 2009. La compañía lanzó la primera inyección de tinta de impresora / cortadora del mundo con tinta de plata metálica. Este 54 "(1,37 m) de ancho máquina también utiliza CMYK y blanco.

En 2010, Roland DG lanzó una serie de máquinas que se puede utilizar con tinta metálica y blanca: la familia VS. El VS está disponible en anchos de 76cm hasta 163cm.

Roland DG tuvo otra primicia en 2011. La empresa presentó el primer escritorio impresora / cortadora del mundo con tinta metálica. La BN-20, de 52cm de ancho, se adapta perfectamente a cualquier entorno de oficina. Por otra parte, Roland DG introdujo la LEF-12. Esta es una impresora UV de escritorio que imprime directamente en objetos de hasta 10 cm de altura.

Switch

El switch es un aparato muy semejante al hub, pero tiene una gran diferencia: l
os datos provenientes de la computadora de origen solamente son enviados al la computadora de destino. Esto se debe a que los switchs crean una especie de canal de comunicación exclusiva entre el origen y el destino. De esta forma, la red no queda "limitada" a una única computadora en el envío de información . Esto aumenta la performance de la red ya que la comunicación está siempre disponible, excepto cuando dos o más computadoras intentan enviar datos simultáneamente a la misma máquina. Esta característica también disminuye los errores (colisiones de paquetes de datos, por ejemplo). Así como en el hub, un switch tiene varios puertos y la cantidad varía de la misma forma. Historia


A principios de la década de 1980, Ethernet era una tecnología consolidada que ofrecía una velocidad de 1 Mbits/s, mucho mayor que gran parte de las alternativas de la época. Las redes Ethernet tenían una topología en bus, donde el medio físico de transmisión (cable coaxial) era compartido. Ethernet era, por lo tanto, una red de difusión y como tal cuando dos estaciones transmiten simultáneamente se producen colisiones y se desperdicia ancho de banda en transmisiones fallidas.

El diseño de Ethernet no ofrecía escalabilidad, es decir, al aumentar el tamaño de la red disminuyen sus prestaciones o el costo se hace inasumible. CSMA/CD, el protocolo que controla el acceso al medio compartido en Ethernet, impone de por sí limitaciones en cuanto al ancho de banda máximo y a la máxima distancia entre dos estaciones. Conectar múltiples redes Ethernet era por aquel entonces complicado, y aunque se podía utilizar un router para la interconexión, estos eran caros y requería un mayor tiempo de procesado por paquete grande, aumentando el retardo.

Para solucionar estos problemas, primero W. Kempf inventó el bridge (puente), dispositivo software para interconectar dos LANs. En 1990 Kalpana desarrolló el switch Ethernet, puente multipuerto implementado en hardware, dispositivo de conmutación de tramas de nivel 2. Usar switches para interconectar redes Ethernet permite separar dominios de colisión, aumentando la eficiencia y la escalabilidad de la red. Una red tolerante a fallos y con un nivel alto de disponibilidad requiere que se usen topologías redundantes: enlaces múltiples entre switches y equipos redundantes. De esta manera, ante un fallo en un único punto es posible recuperar de forma automática y rápida el servicio. Este diseño redundante requiere la habilitación del protocolo spanning tree (STP) para asegurarse de que solo haya activo un camino lógico para ir de un nodo a otro y evitar así el fenómeno conocido como tormentas broadcast. El principal inconveniente de esta topología lógica de la red es que los switches centrales se convierten en cuellos de botella, pues la mayor parte del tráfico circula a través de ellos.
Sincoskie consiguió aliviar la sobrecarga de los switches inventando LAN virtuales al añadir una etiqueta a las tramas Ethernet con la que diferenciar el tráfico. Al definir varias LAN virtuales cada una de ellas tendrá su propio spanning tree y se podrá asignar los distintos puertos de un switch a cada una de las VLAN. Para unir VLAN que están definidas en varios switches se puede crear un enlace especial llamado trunk, por el que fluye tráfico de varias VLAN. Los switches sabrán a qué VLAN pertenece cada trama observando la etiqueta VLAN (definida en la norma IEEE 802.1Q). Aunque hoy en día el uso de LAN virtuales es generalizado en las redes Ethernet modernas, usarlas para el propósito original puede ser un tanto extraño, ya que lo habitual es utilizarlas para separar dominios de difusión (hosts que pueden ser alcanzados por una trama broadcast).





IEEE 802.1aq-2012 - Shortest Path Bridging ofrece mucha más escalabilidad a hasta 16 millones comparado con el límite de 4096 de las VLAN.

 

 

Routers

El router es un dispositivo utilizado en redes de mayor porte.
Es más " inteligente" que el switch, pues, además de cumplir la misma función, también tiene la capacidad de escoger la mejor ruta que un determinado paquete de datos debe seguir para llegar a su destino. Es como si la red fuera una ciudad grande y el router elige el camino más corto y menos congestionado. De ahí el nombre de router.


 


Existen básicamente dos tipos de routers:

Estáticos: este tipo es más barato y esta enfocado en elegir siempre el camino más corto para los datos, sin considerar si aquel camino tiene o no atascos;

Dinámicos: este es más sofisticado (y consecuentemente más caro) y considera si hay o no atascos en la red. Trabaja para hacer el camino más rápido, aunque sea el camino más largo. No sirve de nada utilizar el camino más corto si este está congestionado. Muchos de los routers dinámicos son capaces de realizar compresión de datos para elevar la tasa de transferencia.

Los routers son capaces de interconectar varias redes y generalmente trabajan en conjunto con hubs y switchs. Suelen poseer recursos extras, como firewall, por ejemplo.

Para quien desee montar una red pequeña, conectando, por ejemplo, tres computadoras,
el uso de switchs es lo más recomendable ya que el precio de esos dispositivos son prácticamente equivalentes a los de los hubs.Si compartes internet de banda ancha, un switch puede proporcionar mayor estabilidad en las conexiones.

Un dato importante: al buscar hubs, switchs o incluso routers, siempre opta por marcas conocidas. Eso puede evitar problemas en el futuro.

La implementación de routers es utilizada generalmente en redes de empresas (redes corporativas). Además de ser más caros, también son más complejos para ser administrados y sólo deben ser utilizados si hay muchas computadoras en la red. Sin embargo, muchos usuarios con acceso a internet por ADSL logran usar sus modems como routers y así, comparten la conexión de internet con todas las computadoras de la red, sin que sea necesario dejar la computadora principal encendida. Basta dejar el módem/router activado.


Historia


El primer dispositivo que tenía fundamentalmente la misma funcionalidad que lo que el día de hoy entendemos por encaminador, era el Interface Message Processor o IMP. Los IMP eran los dispositivos que formaban la ARPANET, la primera red de conmutación de paquetes. La idea de un encaminador (llamado por aquel entonces puerta de enlace ) vino inicialmente de un grupo internacional de investigadores en redes de computadoras llamado el International Network Working Group (INWG). Creado en 1972 como un grupo informal para considerar las cuestiones técnicas que abarcaban la interconexión de redes diferentes, se convirtió ese mismo año en un subcomité del International Federation for Information Processing.

Esos dispositivos se diferenciaban de los conmutadores de paquetes que existían previamente en dos características. Por una parte, conectaban tipos de redes diferentes, mientras que por otra parte, eran dispositivos sin conexión, que no aseguraban fiabilidad en la entrega de tráfico, dejando este rol enteramente a los anfitriones. Esta última idea había sido ya planteada en la red CYCLADES.

La idea fue investigada con más detalle, con la intención de crear un sistema prototipo como parte de dos programas. Uno era el promovido por DARPA, programa que creó la arquitectura TCP/IP que se usa actualmente, y el otro era un programa en Xerox PARC para explorar nuevas tecnologías de redes, que produjo el sistema llamado PARC Universal Packet. Debido a la propiedad intelectual que concernía al proyecto, recibió poca atención fuera de Xerox durante muchos años.

Un tiempo después de 1974, Xerox consiguió el primer encaminador funcional, aunque el primer y verdadero enrutador IP fue desarrollado por Virginia Stazisar en BBN, como parte de ese esfuerzo promovido por DARPA, durante 1975-76. A finales de 1976, tres encaminadores basados en PDP-11 entraron en servicio en el prototipo experimental de Internet.
El primer encaminador multiprotocolo fue desarrollado simultáneamente por un grupo de investigadores del MIT y otro de Stanford en 1981. El encaminador de Stanford se le atribuye a William Yeager y el del MIT a Noel Chiappa. Ambos estaban basados en PDP-11. Como ahora prácticamente todos los trabajos en redes usan IP en la capa de red
, los encaminadores multiprotocolo son en gran medida obsoletos, a pesar de que fueron importantes en las primeras etapas del crecimiento de las redes de ordenadores, cuando varios protocolos distintos de TCP/IP eran de uso generalizado. Los encaminadores que manejan IPv4 e IPv6 son
multiprotocolo, pero en un sentido mucho menos variable que un encaminador que procesaba AppleTalk, DECnet, IP, y protocolos de XeroX. Desde mediados de los años 1970 y en los años 1980, los miniordenadores de propósito general servían como enrutadores.

Actualmente, los encaminadores de alta velocidad están altamente especializados, ya que se emplea un hardware específico para acelerar las funciones de encaminamiento más específicas, como son el encaminamiento de paquetes y funciones especiales como la encriptación IPsec.

Funcionamiento


El funcionamiento básico de un enrutador o encaminador, como se deduce de su nombre, consiste en enviar los paquetes de red por el camino o ruta más adecuada en cada momento. Para ello almacena los paquetes recibidos y procesa la información de origen y destino que poseen. Con arreglo a esta información reenvía los paquetes a otro encaminador o bien al anfitrión final, en una actividad que se denomina 'encaminamiento'. Cada encaminador se encarga de decidir el siguiente salto en función de su tabla de reenvío o tabla de encaminamiento, la cual se genera mediante protocolos que deciden cuál es el camino más adecuado o corto, como protocolos basado en el algoritmo de Dijkstra.

Por ser los elementos que forman la capa de red, tienen que encargarse de cumplir las dos tareas principales asignadas a la misma:

  • Reenvío de paquetes: cuando un paquete llega al enlace de entrada de un encaminador, éste tiene que pasar el paquete al enlace de salida apropiado. Una característica importante de los encaminadores es que no difunden tráfico difusivo.
  • Encaminamiento de paquetes : mediante el uso de algoritmos de encaminamiento tiene que ser capaz de determinar la ruta que deben seguir los paquetes a medida que fluyen de un emisor a un receptor.

Por tanto, debemos distinguir entre reenvío y encaminamiento. Reenvío consiste en coger un paquete en la entrada y enviarlo por la salida que indica la tabla, mientras que por encaminamiento se entiende el proceso de hacer esa tabla.

 


Arquitectura física


 

Representación simbólica de un encaminador.

En un enrutador se pueden identificar cuatro componentes:

  • Puertos de entrada: realiza las funciones de la capa física consistentes en la terminación de un enlace físico de entrada a un encaminador; realiza las funciones de la capa de enlace de datos necesarias para interoperar con las funciones de la capa de enlace de datos en el lado remoto del enlace de entrada; realiza también una función de búsqueda y reenvío de modo que un paquete reenviado dentro del entramado de conmutación del encaminador emerge en el puerto de salida apropiado.
  • Entramado de conmutación: conecta los puertos de entrada del enrutador a sus puertos de salida.
  • Puertos de salida: almacena los paquetes que le han sido reenviados a través del entramado de conmutación y los transmite al enlace de salida. Realiza entonces la función inversa de la capa física y de la capa de enlace que el puerto de entrada.
  • Procesador de encaminamiento: ejecuta los protocolos de encaminamiento, mantiene la información de encaminamiento y las tablas de reenvío y realiza funciones de gestión de red dentro del enrutador.

Tipos de enrutamiento


Tanto los enrutadores como los anfitriones guardan una tabla de enrutamiento. El daemon de enrutamiento de cada sistema actualiza la tabla con todas las rutas conocidas. El núcleo del sistema lee la tabla de enrutamiento antes de reenviar paquetes a la red local. La tabla de enrutamiento enumera las direcciones IP de las redes que conoce el sistema, incluida la red local predeterminada del sistema. La tabla también enumera la dirección IP de un sistema de portal para cada red conocida. El portal es un sistema que puede recibir paquetes de salida y reenviarlos un salto más allá de la red local.

Enrutamiento estático

Hosts y redes de tamaño reducido que obtienen las rutas de un enrutador predeterminado, y enrutadores predeterminados que sólo necesitan conocer uno o dos enrutadores

Determinación de enrutamiento

La información de enrutamiento que el encaminador aprende desde sus fuentes de enrutamiento se coloca en su propia tabla de enrutamiento. El encaminadoor se vale de esta tabla para determinar los puertos de salida que debe utilizar para retransmitir un paquete hasta su destino. La tabla de enrutamiento es la fuente principal de información del enrutador acerca de las redes. Si la red de destino está conectada directamente, el enrutador ya sabrá el puerto que debe usar para reenviar los paquetes. Si las redes de destino no están conectadas directamente, el encaminador debe aprender y calcular la ruta más óptima a usar para reenviar paquetes a dichas redes. La tabla de enrutamiento se constituye mediante uno de estos dos métodos o ambos:

  • Manualmente, por el administrador de la red.
  • A través de procesos dinámicos que se ejecutan en la red.

Rutas estáticas

Las rutas estáticas se definen administrativamente y establecen rutas específicas que han de seguir los paquetes para pasar de un puerto de origen hasta un puerto de destino. Se establece un control preciso de enrutamiento según los parámetros del administrador.

Las rutas estáticas por defecto especifican una puerta de enlace de último recurso, a la que el enrutador debe enviar un paquete destinado a una red que no aparece en su tabla de enrutamiento, es decir, se desconoce.

Las rutas estáticas se utilizan habitualmente en enrutamientos desde una red hasta una red de conexión única, ya que no existe más que una ruta de entrada y salida en una red de conexión única, evitando de este modo la sobrecarga de tráfico que genera un protocolo de enrutamiento. La ruta estática se configura para conseguir conectividad con un enlace de datos que no esté directamente conectado al enrutador. Para conectividad de extremo a extremo, es necesario configurar la ruta en ambas direcciones. Las rutas estáticas permiten la construcción manual de la tabla de enrutamiento.

Enrutamiento dinámico

El enrutamiento dinámico le permite a los encaminadores ajustar, en tiempo real, los caminos utilizados para transmitir paquetes IP.





















No hay comentarios:

Publicar un comentario