2. BREVE HISTORIA

2. Breve Historia 
2.1 Orígenes

Entre las décadas de 1940 y 1960, al principio, las computadoras electrónicas tenían paneles con bombillas en la parte frontal. Cada luz encendida o apagada indicaba si un bit específico dentro de la computadora estaba activo o no. Esto ayudaba a los ingenieros a ver cómo funcionaba la máquina por dentro, y por eso ese panel se empezó a llamar "monitor".

En esos tiempos, los monitores no servían para mostrar mucha información y su uso era muy limitado. Por eso, no se usaban como salida principal de datos; para eso se prefería una impresora. El monitor solo servía para seguir el comportamiento del programa.

Además, antes se les decía "unidades de visualización visual" (VDU por sus siglas en inglés), sobre todo en el Reino Unido. Pero ese término dejó de usarse en los años 90


Imagen referencial. Esta imagen nos permite visualizar como los ingenieros “Monitoreaban” el estado interno de la maquina a través de estos paneles, que dieron origen al termino “monitor”

2.2 Evolución del monitor

2.2.1 Monitor CTR (1970)

Durante los años 70 empezaron a usarse los primeros monitores con tecnología CRT, que significa "tubo de rayos catódicos". Estos monitores eran de un solo color (normalmente verde con fondo negro) y seguían un estándar llamado MDA (Monochrome Display Adapter), creado por IBM. No mostraban imágenes ni gráficos, solo texto en la pantalla.

El tubo CRT funciona enviando un rayo de electrones hacia una pantalla especial que tiene una capa de fósforo. Esa capa se ilumina cuando el rayo la toca, y así se forma la imagen. Además, se usaba plomo en el vidrio para proteger al usuario de la radiación. Esta tecnología fue muy común en monitores y televisores antiguos, aunque con el tiempo fue reemplazada por pantallas más modernas como las de LCD, LED o plasma. 

El adaptador MDA no servía para ver imágenes ni colores, solo para mostrar letras y números bien definidos, en una cuadrícula de 80 columnas por 25 filas



2.2.2 Monitor CGA (1981)

Luego de los monitores monocromáticos, ese mismo año (1981), aparecieron los primeros monitores a color llamados CGA, que significa Color Graphics Adapter o adaptador gráfico a color. Este tipo de monitor surgió gracias a la primera tarjeta gráfica que seguía el estándar CGA de IBM.

Estos monitores ya podían mostrar gráficos e imágenes simples en color, lo que fue una gran novedad para la época. Permitían hasta 16 colores en modo gráfico (aunque no todos a la vez) y 4 colores en pantalla a la vez con una resolución de 320x200 píxeles. En modo texto, podían mostrar 80 columnas por 25 líneas, como los MDA, pero a color.

A pesar de ser más avanzados, mucha gente seguía comprando los monitores en blanco y negro (MDA) porque eran más baratos y ofrecían texto más nítido para tareas de oficina o programación.

En resumen, el monitor CGA marcó el inicio del uso del color en las computadoras personales, pero al principio no fue tan popular como se esperaba por su precio y por las limitaciones que aún tenía.

 


2.2.3 Monitor EGA (1984)

En esa misma década de los 80, tan solo 3 años después del CGA En 1984, , salió el monitor EGA, que significa Enhanced Graphics Adapter o "adaptador de gráficos mejorados". Fue una mejora importante creada por IBM para mostrar gráficos con mejor calidad.

Este tipo de monitor permitía ver más colores (hasta 16) al mismo tiempo y tenía una resolución más alta, de hasta 640×350 píxeles, lo cual era bastante bueno para la época. Se usaba sobre todo en las nuevas computadoras IBM AT (Advanced Technology).

El EGA era una especie de paso intermedio entre el CGA (que tenía gráficos simples y pocos colores) y el VGA (que vendría después con muchas más mejoras). Gracias al EGA, los gráficos se veían más definidos y coloridos, lo que lo hizo popular entre quienes usaban programas con imágenes o juegos más detallados.


 

2.2.4 Monitor VGA (1987)

En 1987, apareció el estándar VGA (Video Graphics Array o matriz gráfica de video), creado por IBM. Fue un gran avance en su tiempo y se volvió muy popular rápidamente. A partir de su llegada, los monitores más antiguos como CGA y EGA empezaron a quedar en el pasado, ya que VGA ofrecía una mejor calidad de imagen, más colores y resoluciones más altas.

Una de las novedades más importantes del VGA fue que podía mostrar hasta 256 colores al mismo tiempo, con resoluciones que llegaban a 640×480 píxeles, lo que mejoraba muchísimo la experiencia visual, tanto en programas como en videojuegos.

Además, el VGA introdujo el uso de señales analógicas (a diferencia de los anteriores, que usaban señales digitales), lo que hacía que los monitores anteriores no fueran compatibles con esta nueva tecnología sin un adaptador especial.

Gracias al VGA, el uso del color en las computadoras personales se volvió mucho más común y atractivo, marcando el inicio de una nueva era en la visualización gráfica



2.2.5 Monitor SVGA (1989)

En 1989, el estándar VGA fue mejorado y rediseñado, dando paso a lo que se conoce como SVGA (Super VGA). Esta nueva versión se creó para corregir algunas limitaciones del VGA original y ofrecer una mejor calidad de imagen. Con SVGA, se podían usar más colores (hasta 16 millones en versiones avanzadas) y resoluciones mucho más altas, superando fácilmente los 640×480 píxeles del VGA.

A diferencia de los estándares anteriores, SVGA no fue desarrollado por IBM, sino por varios fabricantes de tarjetas gráficas, muchos de los cuales siguen siendo conocidos hoy en día, como S3 Graphics, NVIDIA, ATI, entre otros.

Con la llegada de SVGA, también se hicieron populares los monitores CRT más avanzados, que ofrecían mejor nitidez y color. De hecho, estos monitores de tubo (CRT) fueron los más comunes en hogares y oficinas durante muchos años, hasta que empezaron a ser reemplazados por las pantallas planas (LCD y LED) a principios de los 2000.





2.2.6 Monitor LCD (1990)

A comienzos de los 90, comenzaron a popularizarse los monitores LCD. Estas pantallas eran mucho más delgadas, livianas y eficientes en comparación con los antiguos monitores CRT. Su nombre proviene del inglés Liquid Crystal Display, que significa "pantalla de cristal líquido".

Tecnología y funcionamiento
Las pantallas LCD están formadas por miles (o millones) de píxeles que pueden ser de color o monocromáticos. Están ubicados sobre una fuente de luz trasera. Utilizan una sustancia especial llamada cristal líquido, que tiene propiedades tanto de sólidos como de líquidos.

Cada partícula de cristal líquido puede cambiar su orientación al recibir una señal eléctrica, lo que permite bloquear o dejar pasar la luz a través de los filtros de la pantalla. Esto es lo que forma las imágenes.

Filtros y color
Una pantalla LCD incluye dos filtros polarizados (uno vertical y otro horizontal) que controlan el paso de la luz. Además, cada píxel tiene tres subpíxeles con filtros de color rojo, verde y azul (RGB). Combinando estos colores en distintas intensidades se pueden mostrar millones de colores.

Control de brillo y tonalidades
El brillo de cada subpíxel se ajusta con diferentes niveles de voltaje, lo que permite mostrar tonos más claros u oscuros según la imagen que se desea representar.

 



Comentarios

Entradas más populares de este blog

5. FACTORES A CONSIDERAR PARA ELIGIR UN MONITOR

1. ¿QUE ES Y PARA QUE SIRVE?

4. TIPOS DE CONECTORES