¿Te gustó esta Web? Haz clic aquí para recibir novedades.

12/12/2014


La evolución de las computadoras (Monografía de mi autoría, realizada hace unos años atrás).

“Considera el pasado y conocerás el futuro”
Proverbio Chino.

Introducción.

Las computadoras electrónicas no surgieron de la nada. Es mucho lo que se debe a quienes diseñaron y construyeron los primeros sistemas electrónicos para resolver problemas matemáticos y lógicos. Ellos fueron los Colon, los Ericson y los Balboa de la computación moderna; pero muchos matemáticos y científicos de épocas pasadas habían aportado ya una contribución importante a ese logro.

Ciertos conocimientos acerca de la historia de los instrumentos mecánicos que han reforzado las facultades mentales del hombre y una mirada a su futuro serán útiles para quienquiera trate hoy de comprender los usos y participar en las aplicaciones de las computadoras. 1

Las primeras formas de contar y su evolución.

Las manos.

No hay duda de que el hombre primitivo utilizó sus dedos para contar; así el diez, la suma de los dedos de ambas manos, se convirtió en la base del familiar sistema de numeración –el decimal- que ha servido a la humanidad a lo largo de su historia. 2

Los guijarros.

Los progresos fueron lentos pero seguros. El hombre de la Edad de Piedra utilizó guijarros para contar, sin dejar de separarlos en grupos de diez dígitos; así aumentó su facilidad para contar. Ese sistema fue superado, probablemente ya hace unos cinco mil años, mediante el empleo de una tablilla acanalada –casi siempre de arcilla- en el cual podían colocarse los guijarros. Haciendo deslizar las piedras a lo largo de las ranuras, la forma de contar se realizaba en forma casi automática. 3

El Ábaco chino y el Sorobán japonés.


China y Japón agregaron un mayor refinamiento a la tablilla acanalada, ensartando cuentas (probablemente guijarros perforados) en cañas o alambres dispuestos dentro de un bastidor. Este sistema evolucionó hasta llegar al Ábaco chino y el Sorobán japonés, ambos de uso muy difundido aún en nuestros días. 4

La máquina calculadora de Pascal.


Con el correr de los años se idearon y utilizaron muchos otros dispositivos ingeniosos, el más importante de los cuales fue una “máquina aritmética”, mecanismo con ruedas dentadas construido en 1642 por Blaise Pascal, el notable matemático y filósofo francés. La máquina calculadora de Pascal fue mejorada mas tarde (entre 1671 y 1694) por el matemático alemán barón Gottfried Wilhelm von Leibniz, pero su construcción carecía de precisión mecánica y, como muchos otros intentos, no tuvo éxito. 5


Punto de inflexión en la ciencia de la computación

La máquina de diferencias.

“La máquina analítica no es capaz de crear nada, sin embargo puede hacer
cualquier cosa que sepamos ordenarle”
Ada Lovelace.

El gran adelanto en la ciencia de la computación se logró entre los años 1812 y 1833, gracias a las ideas y los esfuerzos de Charles Babbage, profesor de matemáticas en la Universidad de Cambridge. La “máquina de diferencias de Babbage”, aunque mecánica, estaba basada en conceptos que son fundamentales en la actualidad para las computadoras electrónicas. Tenía lo que Babbage llamó un almacén magnético, el mecanismo correspondía a la actual unidad central de procesamiento, y el control se relacionaba con los actuales programas de computación electrónica.

La máquina de diferencias de Babbage nunca llegó a funcionar. Le fue imposible a su inventor obtener piezas mecánicas construidas con la precisión que ella requería; en aquel tiempo, las técnicas de fabricación no estaban aún a la altura de esa tarea. Por consiguiente, las ideas de este gran matemático quedaron en la esfera teórica, sin llegar al nivel de las aplicaciones prácticas. Habrían de transcurrir muchos años antes que la mecánica de precisión pudiera combinarse con los principios de la electrónica para lograr que las ideas de Babbage cobrasen realidad. 6

Tarjetas perforadas de Heman Hollerith.

En 1886, el doctor Herman Hollerith creó, para la Oficina de Censos de los Estados Unidos, un sistema contable con tarjetas perforadas, técnica que posteriormente sería muy utilizada para fines comerciales e industriales. Si bien este sistema no se basaba en los principios que se emplean para el diseño de las computadoras, las tarjetas perforadas se convirtieron en un medio importante para introducir datos en estas máquinas. 7

La máquina de sumar.

La máquina de Pascal adolecía de una falla práctica, con las otras máquinas de sumar que se construyeron de tiempo en tiempo en las dos centurias siguientes (a 1642). Estas fallaban no tanto porque el diseño fuera malo, sino a que la tecnología de la época no estaba lo bastante adelantada para producir dispositivos mecánicos dignos de confianza. La computación mecánica solo se introdujo en 1885, cuando William Seward Burroughs creó la primera máquina de sumar comercial. La idea del cálculo mecánico fue aceptada –lentamente, al principio- en el mundo de los negocios. Cada vez había que realizar más cálculos.

Esas primeras máquinas solo eran capaces de efectuar adiciones; más adelante fueron mejoradas de modo que también podían sustraer. Con todo, no poseían la habilidad de multiplicar ni dividir automáticamente porque estas son operaciones más complejas. 8

Calculadoras de mesa.

Muchos de los problemas comerciales requieren solo operaciones de adición y substracción. Por ejemplo, un banco puede llevar al día las cuentas de cheques utilizando solo la suma para los depósitos y la resta para los débitos. En problemas como estos son adecuadas las máquinas de sumar y restar. Sin embargo, dejan de serlo cuando se tratan de cálculos científicos y de ingeniería, que exigen muchas multiplicaciones y divisiones. Los cómputos de este tipo se realizaban, por lo general, con reglas de cálculo. Pero estas ofrecen solo una aproximación visual de la respuesta. No tienen la precisión que a menudo se requiere. A medida que avanzaba la tecnología iba aumentando cada vez más la demanda de calculadoras veloces, que pudieran multiplicar y dividir con precisión. Una solución temporaria surgió en la época de la primera guerra mundial, cuando se inventaron las calculadoras de mesa. Estas máquinas podían realizar las operaciones aritméticas por medio de un teclado de control. 9

Final de una era y comienzo de otra.

Las visiones de Norbert Wiener.

La edad de la fuerza bruta había alcanzado ya un límite máximo. No solo nos hallábamos en el umbral de una nueva era, sino que habíamos  llegado al final de la era de la energía primaria. En adelante, la atención debía centrarse en el control de la energía, en las comunicaciones y en los procesos automáticos. Las consecuencias eran muchas, a menudo confusas y a veces aterradoras. No obstante, existía la posibilidad de alcanzar una época de buena vida para todos, si el hombre tenia el buen sentido de utilizar su inteligencia natural.

Los robots, afirmaba Wiener, habrán de realizar inevitablemente muchas de las tareas que hoy ejecuta el hombre. Los órganos sensibles de los robots descubrirán condiciones y cambios y sus cerebros tomarán decisiones. La computadora, tal como la conocemos, es uno de esos robots; además del hombre, solo la computadora puede realizar estas funciones.

Cabe señalar  que Wiener abrigaba dudas acerca del resultado de esta evolución, no porque cuestionase la capacidad de los robots, sino porque no confiaba del todo en la sensatez y buena voluntad de los hombres encargados de determinar el uso de los robots y de sus semejantes. El reemplazo del hombre por la máquina plantea muchos problemas, pero la evolución ofrece la perspectiva de abundantes beneficios, con menos esfuerzos físicos para todos.

Este proceso se está produciendo ahora y el hombre encuentra nuevos beneficios –si bien a costa de crecientes inquietudes- en el cambiante orden social. En la actualidad, miles de grandes computadoras, además de docenas de miles de otras de menor tamaño para propósitos especiales, realizan tareas que antes efectuaba el hombre, y también muchas otras demasiado complejas para él. Además de llevar la contabilidad comercial corriente, las computadoras están haciendo muchas otras cosas, como son dirigir las líneas de montaje en las fábricas y controlar los vehículos espaciales en vuelo. Estas máquinas no solo efectúan operaciones de control que reemplazan al hombre en los trabajos físicos, sino que su capacidad de tomar decisiones basadas en los hechos les permite sustituir al personal de supervisión y administración en ciertas esferas. Es cierto que esto último ha ocurrido en situaciones específicas, pero también es verdad que, debido a las computadoras, se están creando cada vez más nuevas industrias y ocupaciones. Además, se abren ahora nuevos campos de actividad para personas especializadas en diseño, construcción, mantenimiento, operación y programación de computadoras. Es todo un nuevo mundo, que necesita miles de personas preparadas y calificadas.

La necesidad de emplear computadoras en las empresas, el gobierno, las investigaciones y otras actividades, constituye un desafío para los científicos, ingenieros y fabricantes de estas máquinas. Como resultado de ello, hay constantes mejoras en el diseño y la construcción de computadoras y de sus componentes. 10

Las primeras computadoras.

ENIAC
Entre los años 1937 y 1940 se construyó en la Universidad de Hardvard, con la colaboración de IBM Corporation, la computadora MARK I, en parte mecánica y en parte electrónica. Inmediatamente después de la MARK I, en 1942, fue construida otra computadora, la ENIAC, en la universidad de Pensilvania, por J. Presper Eckert y el doctor John W. Mauchly.

La ENIAC, primera computadora totalmente electrónica, era una construcción de treinta toneladas que ocupaba mas de 1400 metros cuadrados de superficie. Contenía mas de diecinueve mil válvulas electrónicas y muchos miles de kilómetros de conductores. En comparación con el nivel actual, la ENIAC tenia una capacidad limitada. Costaba mucho hacerla funcionar, pero trabajaba con precisión. Esta máquina señaló el comienzo de la era de las computadoras. Entre los primeros problemas que le fueron planteados figuraba uno muy complejo de física nuclear, cuya solución hubiese requerido el trabajo de un centenar de ingenieros durante un año entero. La ENIAC dio la respuesta en dos horas.

En los diez años siguientes se crearon varias grandes computadoras, pero la UNIVAC I, construida por la Remington Rand en 1951, fue la primera capaz de manejar tanto símbolos alfabéticos como numéricos. En la UNIVAC I, el almacenamiento principal era un tanque de mercurio, reemplazado luego, en la UNIVAC II, por un almacenamiento de núcleos con una capacidad de hasta 120.000 dígitos binarios (bits) o unidades de información. El almacenamiento auxiliar (“memoria” de la computadora) fue asignado a cintas y tambores magnéticos.

UNIVAC
A partir de este comienzo los progresos fueron rápidos. La WHIRLWIND I, del Instituto Tecnológico de Masachusetts (M.I.T.), fue diseñada para efectuar cálculos científicos complejos, y reunida muchas de las características incorporadas luego a las IBM 701 y 705, así como a la UNIVAC 1103.

AL perfeccionarse su estructura y diseño, durante la década de 1950, la computadora electrónica fue incorporándose cada vez más a la trama de la vida y de la industria norteamericanas. La LARC, una computadora de capacidad extraordinariamente grande, fue diseñada por la Remington rand para investigaciones navales. En 1960 se construyeron y se entregaron a sus usuarios dos sistemas LARC: uno se instaló en la Universidad de California, destinado a investigaciones navales, y el otro en Washington, D. C., en la David Taylor Model Basin, de la Armada de los Estados Unidos. Se trataba de un sistema de procesamiento múltiple que empleaba dos grupos de computadoras, uno para cálculos y el otro para controlar la entrada, la salida y la transferencia de datos,  así como para rutinas de preparación. Se utilizaban núcleos magnéticos para el almacenamiento principal y tambores magnéticos para los almacenamientos auxiliares.

MARK I
Casi simultáneamente, la IBM construyó otra gran computadora, la STRETCH, para el laboratorio científico de los álamos, de la Comisión de Energía Atómica. En esa época, la STRETCH era la computadora mas veloz del mundo para trabajos científicos, capaz de efectuar hasta dos millones de operaciones de sumar por segundo,
            
Las dos gigantes, LARC y STRETCH, demostraron muchos conceptos de la ciencia de la computación, pero eran máquinas demasiado grandes y costosas para organizaciones empresarias. Las empresas pequeñas, sobre todo, tenían que limitarse a mirar como espectadores interesados. Una firma con capital de medio millón de dólares, por ejemplo, difícilmente podía adquirir una computadora que costaba entre dos y diez veces esa cantidad. Los fabricantes encararonel problema de crear un producto accesible a la mediana empresa. 11

Los primeros cambios en los diseños.

Las primeras demandas de cambios en las computadoras tendían a lograr una reducción en el tamaño y los costos. La UNIVAC I era una computadora de sorprendente capacidad, pero muy voluminosa, si bien resultaba pequeña en comparación con su antecesora, la ENIAC. Solamente la estructura que alojaba la unidad central de procesamiento de la UNIVAC I ocupaba 2,74 metros de altura, 4,27 de largo y 2,4 de profundidad. Las válvulas electrónicas, que hoy consideramos enormes e incómodas, varios miles de kilómetros de conductores y la pesada armazón metálica necesaria para soportar el peso, se combinaban para producir una máquina de tamaño y costo excesivos. 12

Los transistores

Los cambios han sido rápidos y espectaculares. En primer lugar, las válvulas han sido reemplazadas por transistores del tamaño de un guisante, muchas veces mas pequeños que la mas diminuta de las válvulas. Con el empleo de transistores no solo se reduce el tamaño, sino que también la energía eléctrica requerida es relativamente insignificante, y el recalentamiento ha dejado de ser un problema. La existencia de transistores y el almacenamiento en núcleos magnéticos han hecho posible un nuevo concepto de diseño de las computadoras, con el resultado de que estas pasaron a la llamada “segunda generación”. La “tercera generación” esta formada por máquinas aún más pequeñas y veloces,  surgiéndo luego una cuarta y quinta generación. 13

Algo más sobre las Generaciones de computadoras.

“La experiencia histórica muestra que los cambios tecnológicos transforman
notablemente las relaciones políticas y sociales”

John von Neumann

Las computadoras de primera generación, comenzando con la UNIVAC I en 1951, utilizaban tubos de vacío como principal elemento de conmutación. Las memorias estaban construidas con finos tubos de mercurio líquido y tambores magnéticos.

Los sistemas de segunda generación de fines de los 50 reemplazaron los tubos de vacío por transistores, y utilizaron núcleos magnéticos para las memorias, tal como en la IBM 1401 y las Honeywell 800. Se redujo dramáticamente el tamaño y la fiabilidad se incrementó significativamente.

Las computadoras de tercera generación, comenzando a mediados de la década del 60, introdujeron procesadores construidos con circuitos integrados, tales como las IBM 360 y las CDC 6400. La tercera generación también introdujo los sistemas operativos y los sistemas de administración de bases de datos.

Los sistemas en línea fueron ampliamente desarrollados durante la tercera generación, a pesar de que la mayor parte del procesamiento todavía se orientaba al trabajo por lotes, donde los datos primero se perforaban en tarjetas o se grababan en cinta.

La cuarta generación, que comenzó de mediados a fines de los 70, introdujo computadoras compuestas enteramente por chips. También introdujo el microprocesador, que dio nacimiento a las computadoras personales. La cuarta generación abarca la integración conjunta de pequeñas y grandes computadoras en un ambiente distribuido de procesamiento/automatización de oficina. Los lenguajes de consulta de cuarta generación, los generadores de informes, las hojas de cálculo y otros paquetes de software pusieron en contacto directo con la computadora a personas con poca o ninguna experiencia en ellas.

La quinta generación deberá formalizarse para principios de la década del 90. Las tecnologías VLSI y SLSI están poniendo las actuales macrocomputadoras en los escritorios de todo el mundo. El reconocimiento de voz, la traducción de lenguajes naturales y extranjeros, las fibras ópticas, los discos ópticos y otras tecnologías aún en desarrollo son parte de la quinta generación. Para fines del corriente siglo, una computadora debería poder conversar en forma más o menos inteligente con nosotros. 14

Comienzo de la miniaturización.

Circuitos integrados.

La tendencia a miniaturizar los aparatos continúa con la integración de los circuitos electrónicos. Los minúsculos transistores (chips que miden un milímetro de lado) de las computadoras de la tercera generación hacen que los transistores empleados en la segunda parezcan voluminosos. 15

Ventajas de la miniaturización.

Empleando la tecnología microelectrónica, hoy es posible construir una unidad computadora con una capacidad mucho mayor que la de la gigantesca ENIAC de treinta toneladas, y que cabe en el espacio equivalente al ocupado por los cajones de un escritorio. Hay una ventaja evidente en hacer una computadora pequeña, aunque solo fuere para reducir sus dimensiones de modo que en vez de un dinosaurio tengamos un ratón. Con todo, la reducción de tamaño no es la ventaja más importante: implica también un gran progreso en la confiabilidad y el funcionamiento. Los pequeños componentes de estado sólido son poco menos que indestructibles, no se desgastan y funcionan casi indefinidamente.

Otra de las ventajas es el aumento en la velocidad de las operaciones. La corriente eléctrica, desplazándose casi a la velocidad de la luz, atraviesa las distancias microscópicas de los diminutos componentes en una fracción del tiempo que requería para recorrer los conductores de los circuitos en las anteriores computadoras. El tiempo de acceso, en las primeras se median en milésimos de segundo (milisegundos). En las computadoras de la segunda generación se hacía lo mismo en millonésimos de segundo (microsegundos, 10-6). Con los microcircuitos, las computadoras de la tercera generación miden el tiempo en fracciones tan pequeñas que llegan a la mil millonésima parte de un segundo (nanosegundos, 10-9); y los diseñadores de computadoras están trabajando ahora a fin de obtener velocidades que se miden en cien mil millonésimos de segundo (picosegundos, 10-12). El aumento en la velocidad del proceso incrementa la capacidad de trabajo de la computadora, así como su flexibilidad para manejar interrupciones de tiempo real y funciones múltiples. 16

Elementos esenciales de las computadoras.

Las computadoras han sido llamadas con frecuencia “cerebros gigantes”. Es un nombre mal aplicado. Solo en forma muy limitada funciona la computadora de manera similar a un cerebro, un cerebro sin inteligencia propia; pero, ¿hasta donde puede extenderse la comparación?. Una máquina de sumar realiza esta operación con exactitud, pero nadie la considera un pequeño cerebro.

Para evitar discusiones o confusiones debe comprenderse que la inteligencia desempeña un papel fundamental en el procesamiento de datos, o de hechos, por medio de la computadora; pero la inteligencia que dirige y controla la máquina es la del programador humano – quien especifica las operaciones y el orden de su ejecución -, y la del operador humano, que pone en marcha, detiene y controla las diversas unidades del equipo. 17

Un instrumento para pensar, planear y realizar.

“El grado de inteligencia que atribuimos al comportamiento de algo está
determinado tanto por nuestra propia capacidad y comprensión como por las
propiedades del objeto que analizamos”.
Alan Turing.

La computadora elabora, procesa los datos; es decir, maneja la información con el fin de llegar a una conclusión, facilitar una decisión, o simplemente registrar un hecho. A título comparativo, digamos que cuando una persona piensa, también elabora datos. En ambos casos se comparan, combinan o relacionan entre sí, de algún otro modo, hechos y cifras. Si la operación concluye con éxito, se llega a una conclusión o resultado.

Además del procesamiento de datos comparándolos, combinándolos y relacionándolos entre si, la computadora posee otra capacidad similar a la del cerebro humano: tiene memoria. En efecto, casi no hay límite para la cantidad de información que puede acumularse en los dispositivos de almacenamiento de datos o “memoria”, de algunas computadoras. Esta información está siempre disponible y se puede recuperar cuando se la solicite.

En muchos sectores empresarios las computadoras se emplean para procesar los datos contables corrientes, con gran velocidad y precisión y en volúmenes potencialmente enormes. La computadora es además, una valiosa herramienta de administración, como que es capaz de suministrar información y respuesta a consultas, de impartir instrucciones al personal de supervisión, de controlar procesos de fabricación y elaboración y tomar decisiones de rutina, que en ocasiones pueden ser críticas. El control de procesos industriales por computadora está ya muy adelantado y su empleo va difundiéndose cada vez más.

El procesamiento de datos se ha convertido en una nueva industria en sí; pero lo más significativo es que, debido al desarrollo de las computadoras, se ha ampliado el horizonte del hombre y han aumentado sus capacidades.  Se han creado industrias y actividades totalmente nuevas, actividades que antes eran imposibles. Las computadoras han proporcionado un medio gracias al cual pueden adquirirse nuevos conocimientos y con cuyo auxilio es posible utilizar todos los conocimientos con fines creadores y productivos. 18

¿Monstruo o herramienta?.

Un halo de misterio rodea a las computadoras en el pensamiento de muchas personas que no trabajan en estrecha relación con ellas. Los escritores de ciencia-ficción han encontrado en las computadoras un campo ilimitado para los vuelos de su imaginación, creando horribles robots que se desplazan libremente y que parecen superar en inteligencia a los seres humanos. En la realidad,  las computadoras son menos románticas y más comprensibles.

Dentro de una simple sección de su red de circuitos electrónicos, una unidad central de procesamiento puede sumar dos dígitos, o comparar dos hechos e informar con un “sí” o un “no”, según que pase o no un impulso de corriente eléctrica a través de determinado circuito. Esencialmente, esto es lo que sucede en la unidad de computación, o procesamiento, de cualquier sistema.

Puesto que la red de circuitos se compone de muchas unidades y de gran número de fuentes dentro del sistema, desde las cuales se puede excitar electrónicamente cada unidad, la variedad de respuestas resulta casi ilimitada.

No es necesario comprende las complejidades de los circuitos electrónicos para saber operar o programar una computadora, como tampoco hace falta conocer la construcción del cambio automático de velocidades para conducir un automóvil. Por esta razón, nos limitaremos a examinar las distintas maneras en que puede usarse la computadora y lo que ella es capaz de hacer, dejando para los ingenieros el arte y ciencia del sistema de circuitos. 19

Componentes esenciales de la PC.

Con frecuencia se la denomina sistema de la computadora, en vez de llamarla simplemente computadora, puesto que el conjunto es mucho más que un dispositivo que suma, resta, multiplica y divide. También una simple máquina de calcular de oficina ejecuta esas operaciones.

En un sistema de computadora hay cuatro secciones básicas: 20

CPU (Control Processing Unit) unidad central de proceso (procesamiento)
La parte de una computadora que realiza la computación. También llamada el procesador, está constituida por la unidad de control y la ALU (unidad aritmética y lógica).

La CPU de una computadora personal está contenida en un microprocesador único. La CPU de una minicomputadora está contenida en una o varias tarjetas de circuito impreso. La CPU de una macrocomputadora está contenida en muchas tarjetas de circuito impreso.

La CPU, el reloj y la memoria principal constituyen una computadora. Un sistema informático completo requiere la agregación de unidades de control, dispositivos de entrada, salida y almacenamiento y de un sistema operativo. 21

Area de entrada
Una porción reservada de memoria que se utiliza para aceptar datos o texto provenientes de un dispositivo periférico tal como un teclado, disco o cinta. 22

Area de salida
Una porción reservada de la memoria que se emplea para disponer datos o texto con el fin de transferirlos a un dispositivo de salida, tal como disco o cinta. 23

Dispositivo de almacenamiento
 Unidad de hardware que conserva datos. Aquí, la denominación se aplica sólo a equipos periféricos externos, tales como los de disco y de cinta, en contraste con la memoria (RAM). 24

Usos industriales y profesionales de las PC's.

“La computadora es, por mucho, la más extraordinaria de las vestimentas
electrónicas creadas por el hombre, ya que es una extensión de nuestro sistema nervioso central. Junto a ella, la rueda no es más que un juguete...”.

Marshall McLuhan.

Las aplicaciones que pueden desarrollarse con una computadora van desde un sistema de gestión comercial, administrativo, hasta sistemas expertos que ayudan en la toma de decisiones, diseño asistido, controladores de vuelo automáticos, máquinas jugadoras de ajedrez, etc.

En esta tarea están involucradas personas de distintas disciplinas: matemáticos, ingenieros e informáticos. Los matemáticos brindan las herramientas básicas para que tanto ingenieros como informáticos puedan desarrollar su labor. Por otro lado se encuentran los usuarios de las aplicaciones, que van desde especialistas que utilizan una determinada herramienta (economistas, docentes, músicos, médicos, arquitectos, etc.) hasta entusiastas que navegan por Internet o juegan con un simulador de vuelo. 25

Descripción sobre la velocidad de la evolución.

- En el siglo IX un texto budista es el primer libro impreso conocido.
- En el siglo XV aparece la imprenta de Gutenberg.
- En el siglo XVIII aparece la revolución industrial.
- A principios del siglo XX la producción industrial automatizada.
- En el siglo XIX la radio.
- En el siglo XX la TV y el cine.

1940 a 1950: Aparecen las primeras computadoras. Con programa fijo y programa variable. En 1945 John von Neumann propone almacenar programas en forma de datos. Surge el transistor y con él la electrónica moderna.

1950 a 1960: Computadoras transistorizadas. Banca computarizada. Circuitos integrados. Láser. En 1959 la Unión Soviética lanza el Sputnik.

1960 a 1970: Sistemas operativos de tiempo compartido. El software como producto industrial. Lenguajes de programación. La primera red de computadoras. En 1969 el hombre llega a la Luna.

1970 a 1980: Aparecen los microprocesadores. Microcomputadoras. Computadoras Personales. Robots industriales controlados por computadora. Supercomputadoras. Primeros juegos para computadoras personales. Planilla de Cálculo. Interfaz gráfica. Apple. En 1979 nace el PacMan.

1980 a 1990: IBM presenta la primera computadora personal (PC). Surgen publicaciones electrónicas. Nace Internet. Aparecen las primeras computadoras masivamente paralelas. Aparecen los virus y los hackers.

1990 a 2000: En 1990 Microsoft introduce Windows 3.0. Aparecen otros elementos como la interfaz hablada, multimedia, robots móviles, realidad virtual, videoconferencia, visión por computadora, etc.

2000 en adelante: Adquiere fuerte impulso la Inteligencia Artificial. La realidad virtual cada vez es mas real. La interfaz hombre-máquina sigue evolucionando las comunicaciones por Internet dan origen a nuevos mecanismos como el e-commerce. Estos datos reflejan la diferencia en la velocidad de evolución de la informática con respecto a cualquiera de las otras industrias. Notar que el avance desde el primer libro impreso a la imprenta tomó 6 siglos, mientras que desde los tubos de vacío al primer microprocesador sólo pasaron una veintena de años. 26

Computadoras Vs. comunicaciones.

Características de las redes locales de PC's.

Que es una red local.

Las redes locales se han estado utilizando, aunque de un modo muy restringido, desde mediados de la década de los setenta. La creciente utilización de redes locales esta originada por el abaratamiento de los componentes electrónicos, la proliferación de terminales inteligentes en el entorno de los sistemas de computación instalados en oficinas, escuelas, universidades, fábricas, etc., y la capacidad de los ordenadores y sus periféricos para comunicarse entre sí, compartir recursos y acceder a servicios y dispositivos especiales. Como era de esperar, los usuarios de sistemas inteligentes, relativamente baratos, basados en el microprocesador, sintieron la necesidad de encontrar un método económico que les permitiese conectarlos entre sí. Las redes locales, aunque diseñadas y utilizadas para otros fines, consiguieron un notable éxito en esta nueva aplicación.

Una red local se distingue de otros tipos de redes: por la zona que cubre, la velocidad de transmisión de información, la facilidad con que se le pueden incorporar nuevos dispositivos y la simplicidad del medio de transmisión que utiliza.

Una red local solamente da servicio a una limitada zona geográfica. Generalmente está limitada a un edificio o a un lugar de trabajo. Las distancias típicas oscilan entre varios cientos de metros y poco más de un kilómetro.

Casi todos los dispositivos utilizados normalmente, se conectan mediante simples cables que recorren todo el edificio. En algunos casos, a intervalos regulares se colocan repetidores.

La utilización de cables normales es una de las características más distintivas y de mayor atractivo. Para los posibles compradores de redes locales, la utilización de cables normales y procedimientos sencillos de conexión son solamente algunas de las ventajas. Para el usuario final es mas importante disponer de un mecanismo eficiente para transmitir información que no le exige conocer los detalles técnicos de la interfase de la red. 27

Definiciones y características principales.

Una red local es un sistema de comunicación de datos que permite que dispositivos independientes se comuniquen entre sí. Esto no las diferencia de otras redes de datos. Lo que distingue a las redes locales es que la comunicación está restringida a una zona limitada, en la mayoría de los casos, a un lugar de trabajo. Este lugar de trabajo puede ser un edificio de oficinas, una oficina en una planta de ese servicio, una fábrica, el campus de una universidad, etc. Presta servicio a un número limitado de dispositivos y toda la red es propiedad privada de una entidad.

La mejor forma de describir una red local es enunciar sus características principales:

-       Está incluida totalmente en una determinada zona geográfica,
-       Interconecta dispositivos que pueden trabajar independientemente,
-       Proporciona a los dispositivos de la red un elevado nivel de interconexión,
-      Se utiliza para la transmisión de información, normalmente en forma digital,
-       Son baratos el medio de transmisión y los dispositivos utilizados para la interfase a la red,
-       Cada dispositivo puede comunicarse con cualquier otro dispositivo de la red. 28

Breve descripción histórica.

Las redes locales surgieron, principalmente, en el ámbito de las universidades y los laboratorios de investigación y desarrollo. Forman parte de la continua evolución de las redes de transmisión de datos en general, y de las tecnologías de conmutación de paquetes en particular.

Los últimos adelantos en el campo de redes locales consisten en la utilización de sistemas de banda ancha. La técnica utilizada por los sistemas de banda ancha consiste en dividir el ancho de banda disponible en canales independientes. Por cada uno de estos canales, que no se comparten, se pueden transmitir datos a alta velocidad. 29

Correo electrónico y fax.

Una parte significativa de todas las formas de comunicaciones existentes se realiza por medios electrónicos, o sea la contrapartida electrónica de las comunicaciones convencionales. Tanto los que utilizan a la computadora para aplicaciones comerciales o como entretenimiento, “conversan” escribiendo frases en un teclado y leyendo las frases enviadas a través de líneas telefónicas. Otros envían memos, cartas y documentos a través del Fax y del correo electrónico; los investigadores tienen acceso a diarios, revistas y bases de datos especializados a través de servicios de computadora online.

Sin importar el medio o la aplicación, la comunicación es la actividad mas importante en la que participamos todos. La comunicación forma parte de todas las actividades humanas, y ha sido la piedra fundamental en el origen de la civilización.

Debemos considerar lo que le sucedería a nuestra civilización si no se contara con comunicaciones rápidas y eficientes, es decir con comunicaciones electrónicas. La mayor parte de las comunicaciones comerciales se realizan a través de computadoras y FAX, incluyendo el envío de pedidos y facturas, las indicaciones de ruta y las transferencias financieras. De no contar con la red electrónica de comunicaciones que ha evolucionado en las tres últimas décadas, todas las actividades comerciales se detendrían bruscamente. 30

Que es el fax.

Fax es la abreviación de facsímil, que se refiere al proceso de copiar y transmitir electrónicamente imágenes de texto y/o gráficos a través de líneas telefónicas. El término Fax también se usa para referirse a mensajes y otro tipo de información transmitida a través de máquinas facsímil.
            
La transmisión de facsímil se realiza en cuatro etapas:

-       Se crea una imagen electrónica del documento en forma de señales binarias mediante el scanner del fax.

-       Un tipo especial de módem incorporado a la máquina de Fax convierte las señales binarias en señales analógicas que pueden transmitirse a través de líneas telefónicas.

-       El módem transmite las señales analógicas a través de una conexión telefónica pre-establecida al Fax receptor, cuyo módem vuelve a convertir las señales a la forma binaria.

-       La impresora del Fax receptor reproduce el documento y/o gráficos originales, revirtiendo el proceso de lectura del Fax emisor.

Otra opción en la transmisión de facsímil son las plaquetas de Fax para PC, las cuales permiten a la computadora enviar y recibir mensajes de Fax del mismo modo que lo hace una máquina convencional. 31

Que es el correo electrónico.

El correo electrónico es la transmisión electrónica de mensajes privados a través de una computadora. Por lo general el correo electrónico lo manejan sistemas de computadoras intermediarias (por ej. Internet, MCI Mail, Compuserve, etc.). Tales sistemas de computadoras intermediarias también se llaman sistemas principales.
            
La computadora debe tener un módem para poder comunicarse con el sistema principal de correo electrónico. Este módem se comunica con el sistema principal a través de líneas telefónicas por voz.
            
El correo electrónico estándar consiste en mensajes de texto y gráficos dirigidos a una dirección online específica en el sistema principal. Esta dirección también se llama cuenta, identificación de usuario (ID) o nombre de usuario. Si se envía un mensaje a través de la computadora, tanto el emisor como el receptor deben estar abonados al sistema principal. 32

Internet.

Internet se inició como un proyecto de defensa de los Estados Unidos. A finales de los años 60, la ARPA (Agencia de Proyectos de Investigación Avanzados) del Departamento de Defensa definió el protocolo TCP/IP. Aunque parezca extraño, la idea era garantizar mediante este sistema la comunicación entre lugares alejados en caso de ataque nuclear. Ahora el TCP/IP sirve para garantizar la transmisión de los paquetes de información entre lugares remotos, siguiendo cualquier ruta disponible.
            

En 1975, ARPAnet comenzó a funcionar como red, sirviendo como base para unir centros de investigación militares y universidades, y se trabajó en desarrollar protocolos más avanzados para diferentes tipos de ordenadores y cuestiones específicas. En 1983 se adoptó el TCP/IP como estándar principal para todas las comunicaciones, y en 1990 desapareció ARPAnet para dar paso junto a otras redes TCP/IP a Internet. Por aquel entonces también comenzaron a operar organizaciones privadas en la Red.

            

Poco a poco, todos los fabricantes de ordenadores personales y redes han incorporado el TCP/IP a sus sistemas operativos, de modo que en la actualidad cualquier equipo está listo para conectarse a Internet.

            
Internet une muchas redes, incluyendo como más importantes la que proporciona acceso a los grupos de noticias (Usenet), que data de 1979 y (conceptualmente) la World Wide Web, de principios de los 90. Se calcula que actualmente hay varios miles de redes de todos los tamaños conectadas a Internet, más de seis millones de servidores y entre 40 y 50 millones de personas que tienen acceso a sus contenidos. Y estas cifras crecen sin cesar de un día a otro.

Internet es un conjunto de redes, redes de ordenadores y equipos físicamente unidos mediante cables que conectan puntos de todo el mundo. Estos cables se presentan en muchas formas: desde cables de red local (varias máquinas conectadas en una oficina o campus) a cables telefónicos convencionales, digitales y canales de fibra óptica que forman las "carreteras" principales. Esta gigantesca Red se difumina en ocasiones porque los datos pueden transmitirse vía satélite, o a través de servicios como la telefonía celular, o porque a veces no se sabe muy bien a dónde está conectada.

En cierto modo, no hay mucha diferencia entre Internet y la red telefónica que todos conocemos, dado que sus fundamentos son parecidos. Basta saber que cualquier cosa a la que se pueda acceder a través de algún tipo de "conexión," como un ordenador personal, una base de datos en una universidad, un servicio electrónico de pago (como CompuServe), un fax o un número de teléfono, pueden ser, y de hecho forman, parte de Internet.

El acceso a los diferentes ordenadores y equipos que están conectados a Internet puede ser público o estar limitado. Una red de cajeros automáticos o terminales de banco, por ejemplo, pueden estar integrados en Internet pero no ser de acceso público, aunque formen parte teórica de la Red. Lo interesante es que cada vez más de estos recursos están disponibles a través de Internet: fax, teléfono, radio, televisión, imágenes de satélites o cámaras de tráfico son algunos ejemplos.

En cuanto a organización, Internet no tiene en realidad una cabeza central, ni un único organismo que la regule o al que pedirle cuentas si funciona mal. Gran parte de la infraestructura es pública, de los gobiernos mundiales, organismos y universidades. Muchos grupos de trabajo trabajan para que funcione correctamente y continúe evolucionando. Otra gran parte de Internet es privada, y la gestionan empresas de servicios de Internet (que dan acceso) o simplemente publican contenidos. Como Internet está formada por muchas redes independientes, que hablan el mismo lenguaje, ni siquiera están claros sus límites.

Para complicar un poco más el asunto, el acceso a Internet suele ser libre y gratuito para estudiantes y profesores (debido a su filosofía de origen) y también lo es el uso de la infraestructura para todo el mundo, aunque los particulares y proveedores de acceso han de pagar para tener acceso y realizar actividades comerciales o privadas. 33

Intranet.

La definición técnica de Intranet es una red de área local, o LAN (Local Area Network), que utiliza tecnología basada en Web, esto es, protocolos abiertos de comunicación (TCP/IP), sistemas estándares de transferencia de ficheros (HTTP y FTP), correo electrónico (SMTP, POP3 e IMAP4), mensajería (NNTP) y otros.

Dicho de otra forma, una Intranet es una red privada que utiliza los recursos desarrollados para Internet para distribuir información y aplicaciones a las que sólo puede obtener acceso un grupo controlado de usuarios. Es un sitio web que resulta accesible solamente para los miembros de la organización, empleados u otras personas con autorización. El "Firewall" (Cortafuegos) la protege contra usuarios/redes no autorizadas, mediante bloqueo de tráfico, intermediación, monitoreo y seguimiento, entre otras funciones. 34

Y2K - El problema del año 2000.

Como surgió y en que consistió el Y2K.

En todas las profesiones suele existir prácticas que perduran mucho tiempo después que desapareció la razón que les dio origen; la programación de las computadoras no es una excepción. La costumbre de ahorrar dos lugares de memoria guardando solo los dos últimos dígitos del año de una fecha ha sobrevivido desde los orígenes de las computadoras electrónicas, allá por 1946, hasta el año 1996, sin descartar que alguno que otro “distraído” la siga utilizando hoy en día. Esta simplificación se da en los cuatro niveles que suelen presentarse en la operatoria del procesamiento electrónico de información:

1- Las máquinas intrínsecamente consideradas, con su “BIOS” o sistema básico de arranque y funcionamiento.

2- El sistema operativo, o programa madre, que a su vez carga todos los programas, aplicaciones y utilitarios.

3- El lenguaje o entorno de programación, fuente de las aplicaciones.

4- Los datos e información propiamente dichos, generados por el sistema e ingresados por los usuarios o provenientes de otros sistemas.

Pensándolo rápidamente, puede parecer que el ahorro de dos dígitos no es significativo, pero es preciso considerar dos factores: por un lado, el costo por unidad de información guardada y, por el otro, la cantidad de registros en que aparece la fecha.

La causa específica del problema fue que al considerar sólo dos dígitos para todas las operaciones, se presuponía, que se estaban utilizando fechas del siglo 20, lo cual seguiría siendo efectivo hasta el 31 de diciembre de 1999, salvo para algunas excepciones. Los distintos sistemas emplean diferentes formatos para guardar las fechas. Algunos las guardan en formato AADDD, en el cual las dos “A” representan los dos dígitos del año y las tres “D” representan el número de día contando desde el 1º de enero; por ejemplo, 98033 representa el 2 de febrero de 1998. De esta manera, si en el año 1997 queríamos calcular la edad de una persona nacida en 1965, año que en la computadora está registrado como 65, la mayoría de los programas calcularían: 97-65=32, lo cual es cierto. Pero desde el 2000 en adelante, el mismo calculo se haría, por ejemplo tomando el año 2002: 02-65=-63, lo cual es un tanto absurdo. Si la rutina de cálculo emplea solo números positivos, el resultado será 63 o error, con lo cual la situación no variará demasiado. Así hubieran sido las cuentas en este siglo si no se hubieran hecho las correcciones necesarias. 35-36



Multimedia.

La mayoría de los expertos coinciden en valorar a la tecnología multimedia como uno de los logros más importantes de finales del siglo XX y uno de los avances que más repercusión tendrá en la sociedad que nos aguarda tras el umbral del año 2000. Se está gestando lo que ya se conoce como la “revolución multimedia”: un proceso que se escribe día a día y en el que, a diferencia de otros cambios históricos, el ciudadano común está desempeñando un papel protagonista. 37

Que es multimedia.

Multimedia significa mezclar sonido, imágenes, gráficos y otra información digital en un solo CD (disco compacto).

El termino “computadora multimedia” es ambiguo, tiene diferentes significados para las personas. Los departamentos de mercadeo de los fabricantes de computadoras, en particular, se pusieron, digamos, “creativos” con el término. Al término multimedia parece vinculárseles con los juegos, lo cual no es justo. La multimedia puede ser utilizada para juegos, para entrenamiento o para aplicaciones serias en los negocios. El énfasis que se ha colocado en las habilidades de la multimedia para jugar juegos desorienta, y no resulta de mucha utilidad si se está tratando de vender computadoras multimedia a altos ejecutivos de una compañía. 38

El futuro.

Intentar descubrir cual será el futuro a largo plazo de la informática no es una tarea fácil. Hace menos de dos décadas que aparecieron las primeras computadoras personales y en la actualidad se han convertido en indispensables para millones de personas. Seguramente hace treinta años pocos se aventuraban a pensar que, algún día, cada hogar podría disponer de una computadora. En el futuro, el desarrollo de la informática volverá a sorprender con avances inimaginables. Los hogares inteligentes o los vehículos controlados por computadora están cada vez más cerca y la televisión interactiva y los asistentes digitales se integrarán a la vida cotidiana como ha ocurrido con los teléfonos móviles. Pero la evolución tecnológica no afectará únicamente a las computadoras; también provocará nuevos cambios sociales como la aparición del teletrabajo y de la tecnocultura. 39

Inteligencia Artificial (IA).

“Resulta difícil catalogar algo como imposible, pues casi siempre los sueños del ayer se convierten en las esperanzas del presente y desembocan por fin en las realidades de mañana"
Robert H.Goddard

Existen numerosas definiciones de Inteligencia Artificial, dependiendo del autor o el campo de especialización. Para hacernos una idea, aquí hay cuatro modelos bastante representativos de esta ciencia. 

-   La IA es la propiedad atribuida a las máquinas capaces de hacer operaciones propias de seres inteligentes (DRAE).

-   La IA es el estudio de las computaciones que permiten percibir, razonar y actuar (Winston).

-   La IA es el estudio de técnicas de resolución de problemas de complejidad exponencial mediante el uso de conocimiento sobre el campo de aplicación del problema (Rich)

-   La IA estudia cómo lograr que las máquinas realicen tareas que, por el momento, son realizadas mejor por los seres humanos. (Rich)

La Inteligencia Artificial tiene dos aspectos, uno como ciencia cognitiva y otro como tecnología informática, y sus características esenciales son:

·    Información simbólica preferente a la numérica.
·    Métodos heurísticos preferente a los algorítmicos.
·    Uso de conocimiento específico-declarativo.
·    Informaciones incompletas o con incertidumbre.
·    Multidisciplinaridad

Si bien a principios de la década de los años 50 aparecieron ya los primeros programas de cálculo formal (que permitían a los ordenadores, utilizados hasta entonces únicamente como máquinas de calcular, manipular símbolos), lo que más tarde recibiría el nombre de inteligencia artificial nació en realidad, en el campo de la informática, con la aparición del primer programa capaz de demostrar teoremas de la lógica de las proposiciones (el Logic Theorist creado por Newell, Shaw y Simon). Dicho programa fue presentado durante la conferencia de investigadores que se celebró en el colegio de Darmouth (1956). En aquella ocasión se acuño, también, el término de inteligencia artificial. Este avance era consecuencia de la carencia de algoritmos que fuesen capaces de describir una cierta serie de actividades cognitivas como el reconocimiento visual de un objeto, la comprensión de los lenguajes naturales (hablados o escritos), el diagnóstico de enfermedades en el ser humano o de averías en las máquinas, etc. La inteligencia artificial nació, pues, como resultado de la confluencia de dos corrientes diversas: por un lado, la científica, que tenía como objetivo intentar comprender los mecanismos de la inteligencia humana empleando para ello, como modelo de simulación, los ordenadores y, por otro lado, la técnica, que pretendía equipar a los ordenadores de capacidades de pensamiento lo más similares posible a las humanas pero sin la pretensión de imitar con toda exactitud los pasos que sigue el ser humano para llevar a cabo dichas actividades intelectuales. Este proceso se vio además reforzado por la aparición de lenguajes de programación bien adaptados a la inteligencia artificial, el LISP (creado por McCarthy a partir de 1960).

El periodo que abarca 1956 a 1968 se caracterizó, en este campo, por los intentos dirigidos a la búsqueda y modelización de determinados principios generales de la inteligencia (aplicaciones como la traducción automática, la percepción visual, etc.). A finales de la década de los años 60, los trabajos se encaminaron hacia el desarrollo de sistemas inteligentes de aplicación en la robótica (visión artificial, manipulación de objetos, navegación automática, etc.) en los que era necesario incorporar una gran cantidad de conocimientos específicos referidos a los problemas que se pretendía resolver con dichas técnicas. Este proceso marcó el inicio del estudio de los llamados sistemas expertos. 40

Sistemas Expertos.

Los sistemas expertos se basan en la simulación del razonamiento humano. El razonamiento humano tiene para ellos, un doble interés: por una parte, el del análisis del razonamiento que seguiría un experto humano en la materia a fin de poder codificarlo mediante el empleo de un determinado lenguaje informático; por otra, la síntesis artificial, de tipo mecánico, de los razonamientos de manera que éstos sean semejantes a los empleados por el experto humano en la resolución de la cuestión planteada. Estos dos campos de interés han conducido a los investigadores que trabajan en el campo de la inteligencia artificial (de la cual los sistemas expertos son un campo preferente) a intentar establecer una metodología que permita verificar el intercambio con los expertos humanos y aislar los diversos tipos de razonamiento existentes (inductivo, deductivo, formal, etc.), así como construir los elementos necesarios para modelizarlos.

Los sistemas expertos son, por lo tanto, intermediarios entre el experto humano, que transmite sus conocimientos al sistema, y el usuario de dicho sistema, que lo emplea para resolver los problemas que se le plantean con la competencia de un especialista en la materia y que, además, puede adquirir una destreza semejante a la del experto gracias a la observación del modo de actuar de la máquina. Los sistemas expertos son, pues, simultáneamente, un sistema de ejecución y un sistema de transmisión del conocimiento.     Asimismo, los sistemas expertos se definen mediante su arquitectura; obtienen, por lo tanto, una realidad palpable. Mientras que en las operaciones de programación clásicas se diferencia únicamente entre el propio programa y los datos, en el caso de los sistemas expertos se diferencian tres componentes principales. Son los siguientes:

·    Base de conocimientos
·    Base de hechos
·    Motor de inferencia 41

Robótica.

El nombre de robot procede del término checo robota (trabajador, siervo) con el que el escritor Karel Capek designó, primero en su novela y tres años más tarde en su obra teatral RUR (Los robots universales de Rossum, 1920) a los androides, producidos en grandes cantidades y vendidos como mano de obra de bajo costo, que el sabio Rossum crea para liberar a la humanidad del trabajo. En la actualidad, el término se aplica a todos los ingenios mecánicos, accionados y controlados electrónicamente, capaces de llevar a cabo secuencias simples que permiten realizar operaciones tales como carga y descarga, accionamiento de máquinas herramienta, operaciones de ensamblaje y soldadura, etc. Hoy en día el desarrollo en este campo se dirige hacia la consecución de máquinas que sepan interactuar con el medio en el cual desarrollan su actividad (reconocimientos de formas, toma de decisiones, etc.).

La disciplina que se encarga del estudio y desarrollo de los robots es la robótica, una síntesis de la automática y la informática. La robótica se centró, en primer lugar, en el estudio y desarrollo de los robots de la llamada primera generación; es decir, incapaces de detectar los estímulos procedentes del entorno y limitados a las funciones con una secuencia predeterminada y fija. Estos robots han dado paso a los que constituyen la segunda generación, capaces de desarrollar algún tipo de actividad sensorial. Los prototipos multisensoriales que interactúan en un grado muy elevado con el entorno se agrupan en la tercera generación. Para ello, la robótica se sirve de disciplinas como la mecánica, la microelectrónica y la informática, además de incorporar a los ingenios técnicas como el reconocimiento y análisis digital de las imágenes, el desarrollo de sistemas sensoriales, etc.

El creciente desarrollo de los robots y su contante perfeccionamiento ha hecho que cada día se apliquen en mayor medida a los procesos industriales en sustitución de la mano de obra humana. Dicho proceso, que se inició hacia 1970, recibe el nombre de robotización y ha dado lugar a la construcción de plantas de montaje parcial o completamente robotizadas. Este proceso conlleva, según sus detractores, la destrucción masiva de puestos de trabajo, mientras que para sus defensores supone la satisfacción de necesidades socioeconómicas de la población y lleva aparejado un aumento muy considerable de la productividad.

A finales de los años 70, se produjo un nuevo giro en el campo de la investigación relacionada con la inteligencia artificial: la aparición de robots. Los robots experimentales creados para estos efectos eran automatismos capaces de recibir información procedente del mundo exterior (p. ej.., sensores, cámaras de televisión, etc.), así como órdenes de un manipulador humano (expresadas en lenguaje natural). De este modo, el robo determinaba un plan y, de acuerdo con él, ejecutaba las órdenes recibidas mediante el empleo de un modelo del universo en el que se encontraba. Era incluso capaz de prever las consecuencias de sus acciones y evitar, así, aquéllas que más tarde pudieran resultarle inútiles o, en algún momento, perjudiciales. Estos primeros robots experimentales eran bastante más inteligentes que los robots industriales, y lo eran porque disponían de un grado mucho mayor de percepción del entorno que los robots empleados en las cadenas de producción.

El principal problema con el que se enfrenta la inteligencia artificial aplicada a los robots es el de la visión. Mientras que la información recibida a través de sensores se puede interpretar con relativa facilidad y entra a formar parte de la descripción del modelo de universo que emplea el robot para tomar decisiones, la percepción de las imágenes captadas y su interpretación correcta es una labor muy compleja. En cuanto a la interpretación de las imágenes captadas mediante cualquier sistema, se ha logrado ya el reconocimiento de formas preprogramadas o conocidas, lo que permite que ciertos robots lleven a cabo operaciones de reubicación de piezas o colocación en su posición correcta a partir de una posición arbitraria. Sin embargo, no se ha logrado aún que el sistema perciba la imagen tomada mediante una cámara de ambiente y adapte su actuación al nuevo cúmulo de circunstancias que esto implica. Así, por ejemplo, la imagen ofrecida por una cámara de vídeo de las que se emplea en vigilancia y sistemas de seguridad no puede ser interpretada directamente por el ordenador. 42 

Redes neuronales.

La neurocomputación trata de alcanzar algunas de las ventajas que proporcionan las redes neuronales biológicas, imitándolas tanto desde el punto de vista morfológico como desde el punto de vista funcional, para lo que se basa en la realización de Redes Neuronales Artificiales o ANN (del inglés Artificial Neural Networks). El motivo por el que se sigue esta vía de investigación es la observación de que el cerebro humano (y no sólo el humano) presenta ciertas notables y deseables características que no se encuentran ni en los ordenadores, que siguen la clásica arquitectura propuesta por Von Neumann, ni en los ordenadores paralelos modernos. Entre estas características cabe destacar el paralelismo masivo, lo que les dota de una gran robustez y tolerancia a fallos, la capacidad de aprender, la capacidad de generalizar, la capacidad de adaptación, la capacidad inherente de procesar información contextual, y aunque parezca lo más anecdótico, un bajo consumo.

Es común el asombro que el ciudadano medio siente ante la enorme capacidad de proceso numérico y simbólico asociado que presentan los ordenadores, capacidad que supera con mucho, y desde hace tiempo, a la de cualquier ser humano. Sin embargo, cualquier persona que haya tenido cierto contacto con un ordenador sabrá que es una "máquina tonta", incapaz de realizar ninguna de las funciones citadas en el párrafo anterior. Y, de hecho, en otro tipo de problemas, es el hombre (y cualquier animal) el que deja en ridículo al superordenador más potente. Uno de los ejemplos más claros consiste en la resolución de complejos problemas de percepción, como el reconocer a una persona entre una multitud, problema que un ser humano puede resolver en un simple golpe de vista.

Por todos estos motivos, las redes neuronales artificiales tratan de imitar los principios de organización, que se cree rigen el cerebro humano. La unidad funcional de estas redes es, por tanto, la neurona artificial. Una neurona artificial no es otra cosa que un procesador muy simple capaz de realizar instrucciones muy primitivas, pero a gran velocidad, y que guarda la información aprendida en las conexiones con otras neuronas. 43

Realidad Virtual.

Con este nuevo concepto, la imaginación sólo se verá limitada por la capacidad de crear de cada persona. Se trata de construir ambientes, texturas, ángulos, hasta llegar a confundirse e inclusive comparar la realidad con la recreación sin saber quien distinguirá la diferencia.

En épocas pasadas sólo los pintores tenían la capacidad de reproducir en un lienzo la realidad de la naturaleza humana. Se trataba de un trabajo artístico digno de permanecer resguardado en una galería para admiración del mundo. Pero hoy, esa admiración se ha transformado en asombro, ya que la tecnología permite que la reproducción de la naturaleza sea tan exacta que juegue con la mente y la imaginación vuele al grado de confundirse en los limites de lo real y fantástico.

En términos estrictos la realidad virtual es una realidad simulada capaz de interactuar con todos los sentidos. Se trata de una realidad "artificial" creada por computadora, en un espacio tridimensional donde el usuario es capaz de manipular y visualizar objetos ilusorios. La realidad virtual pretende crear interfaces que simulen la experiencia humana. Usted solo sabrá que no es real porque conoce la tecnología, pero no podrá notar diferencia entre paisajes y objetos porque podrá tocarlos, olerlos y sentirlos.

La realidad virtual encuentra su mejor aliado en las implantaciones planeadas para multimedia como el Auto Desk y el uso de dispositivos como el CD-ROM. En ella el ambiente está compuesto de miles de objetos geométricos dibujados en un espacio tridimensional, en el que, mientras haya más objetos detallados, mayor será la resolución y por lo tanto la credibilidad de lo que nuestra vista percibe. Sin embrago, para ser más realista requiere de grandes recursos de cómputo y por ello aún no se puede ver como un proyecto de uso generalizado a corto plazo.

La magia de este concepto se encierra en que todo lo que se crea tenga la posibilidad de simular movimiento. Se puede dar vida a un paisaje y moverse dentro de el con la misma sensación de acercamiento a las cosas mientras camina que tendría en el lugar natural. 45


Citas

Computadoras y Automatización, John A. Brown, 3

Computadoras y Automatización, John A. Brown, 3

Computadoras y Automatización, John A. Brown, 3

Computadoras y Automatización, John A. Brown, 3

Computadoras y Automatización, John A. Brown, 4

Computadoras y Automatización, John A. Brown, 4 - 5

Computadoras y Automatización, John A. Brown, 5

Curso Básico de computadoras digitales, 18 - 19

Curso Básico de computadoras digitales, 19 - 20

10 Computadoras y Automatización, John A. Brown, 9 - 10

11 Computadoras y Automatización, John A. Brown, 6 a 10

12 Computadoras y Automatización, John A. Brown, 10

13 Computadoras y Automatización, John A. Brown, 10 y 11

14 Diccionario de computación, John A. Brown, 152 y 153

15 Computadoras y Automatización, John A. Brown, 11

16 Computadoras y Automatización, John A. Brown, 11 y 12

17 Computadoras y Automatización, John A. Brown, 17

18 Computadoras y Automatización, John A. Brown, 17 y 18

19 Computadoras y Automatización, John A. Brown, 18 y 19

20 Computadoras y Automatización, John A. Brown, 19

21 Diccionario de computación, Freedman, 171

22 Diccionario de computación, Freedman, 418

23 Diccionario de computación, Freedman, 574

24 Diccionario de computación, Freedman, 747

25 Curso 2002, 6 y 7

26 Curso 2002, 4 y 5

27 Redes Locales de Informática Aplicada, Gee, 1 a 6

28 Redes Locales de Informática Aplicada, Gee, 1 a 6

29 Redes Locales de Informática Aplicada, Gee, 1 a 6

30 Comprendiendo Fax y Correo Electrónico, xi, Banks, 1a 5

31 Comprendiendo Fax y Correo Electrónico, Banks, 1 y 2

32 Comprendiendo Fax y Correo Electrónico, Banks, 3 y 4

33¿QUÉ ES INTERNET? DESCUBRE INTERNET, 1996,
  http://bbs.seker.es/~alvy/que_es_internet.html .

34 Curso de Intranet, 
http://www.telefonica-data.com/www-app/htm/interior/1.5.1.3/pagina744.shtml.

35 Soluciones informáticas para el año 2000, 17 a 19

36 Soluciones informáticas para el año 2000, 19

37 Manual Multimedia, 10

38 Guía completa de Mantenimiento y Actualización de la PC, 669

39 Manual Multimedia, 292

40 Inteligencia Artificial , http://www.cinefantastico.com/nexus7/ia/que.htm. 

41 Inteligencia Artificial, http://www.cinefantastico.com/nexus7/ia/que.htm. 

42 Inteligencia Artificial, http://www.cinefantastico.com/nexus7/ia/que.htm. 

43 Inteligencia Artificial, http://www.cinefantastico.com/nexus7/ia/que.htm. 

44 Realidad Virtual, 
http://www.jcce.org.cu/scu/INFOMUNDO/HTML/Index_VIRTUAL.htm.

45 Realidad Virtual, 
http://www.jcce.org.cu/scu/INFOMUNDO/HTML/Index_VIRTUAL.htm.


Obras citadas

Banks, Michael: Comprendiendo FAX y Correo Electrónico, Colombia, Editorial Hispano Americana S. A., 1990. 

Brown, John A.: Computadoras y Automatización, Buenos Aires - Argentina, Glem S. A., Setiembre de 1971.  

Curso de Ingreso 2002 – Conceptos de Organización de Computadoras. 

"Curso de Intranet", 
http://www.telefonica-data.com/wwwapp/htm/interior/1.5.1.3/pagina744.shtml . 

Freedman, Alan: Diccionario de computación, Buenos Aires, Mc Graw Hill, 1993. 

Gee, K. C. E.: Introducción a las Redes Locales de Informática Aplicada, ed. Díaz de Santos S. A., Madrid - España, The Macmillan Press Ltd., 1983. 

Ibañe, Alvaro.  "¿QUÉ ES INTERNET? DESCUBRE INTERNET", 1996.  http://bbs.seker.es/~alvy/que_es_internet.html . 

"Inteligencia Artificial", http://www.cinefantastico.com/nexus7/ia/que.htm. 

Manual de Multimedia - Fascículo 1. 

Manual de Multimedia - Fascículo 10. 

Martínez, Rosendo.  "Realidad Virtual",
 http://www.jcce.org.cu/scu/INFOMUNDO/HTML/Index_VIRTUAL.htm. 

Minasi, Mark: Guía completa de Mantenimiento y Actualización de la PC, México, Ventura Ediciones, S.A. de C.V., 1994. 

Murphy, John S.: Curso Básico de Computadoras Digitales, Buenos Aires - Argentina, Glem S.A.C.I.F., Agosto de 1975. 

Peisojovich, Martín: Soluciones informáticas para el año 2000, Buenos Aires - Argentina, MP Ediciones S. A., 1998. 

¿Te gustó esta entrada? Entonces haz clic aquí para no perderte las futuras actualizaciones de: El Erminauta.

Donar en Patreon
¿Te gustó esta Web? Haz clic aquí para recibir novedades.

0 comentarios:

Publicar un comentario

Muchas gracias por comentar.


Donar en Patreon
Nota: Todos los artículos de esta web, www.erminauta.com, poseen Copyright. Cualquier uso indebido, como copia, lectura o transcripción similar en cualquier medio, ya sean páginas web, directos en video, videos grabados, o podcast personales en audios, son una fiel violación a los derechos, lo cual es penado por la ley de propiedad intelectual. De todos modos, si desea crear una información a partir de esta, deberá, de manera inexorable, nombrar la fuente, que en este caso soy yo: Nelson Javier Ressio, y/o esta web mediante el link específico al/los artículo/s mencionado/s.
Safe Creative #0904040153804


Recomendados

Subscribe to RSS Feed Follow me on Twitter!
☝🏼VOLVER ARRIBA☝🏼