miércoles, 25 de julio de 2007

LA PRIMERA COMPUTADORA


La mayoría de los libros relativos a temas de computación o informática que se publicaron durante las décadas del 60, 70 y 80 contenían una breve reseña de la historia de las computadoras. Se describían algunas máquinas de calcular mecánicas, los desarrollos del inglés Babbage (la máquina diferencial y la máquina analítica), la máquina tabuladora de Hollerith y la primera generación de computadoras: la inglesa “Colossus” construida a finales de 1943 con el objetivo de decodificar el sistema de encriptamiento utilizado por los alemanes durante la guerra y la norteamericana Harvard MkI, una computadora programable de propósito general, electromecánica, construida también en 1943 en la Universidad de Harvard con el apoyo financiero de IBM.

Sin embargo, la primera computadora había sido construida años atrás por un joven ingeniero alemán (tenía 28 años cuando la finalizó) sin apoyo oficial o de alguna universidad, con una pequeña ayuda de sus amigos y el lugar de trabajo elegido fue el living del departamento de sus padres.


ANTES DE LA GUERRA

Konrad Zuse nació en Berlín en 1910; se graduó de Ingeniero Civil en 1935. Su primer trabajo fue en la fábrica de aviones Henschel; ahí notó un problema que ya lo había preocupado durante sus estudios universitarios: cuando se diseñaba un puente, un edificio, una estructura y se modificaba algún parámetro o coeficiente, se debían repetir casi todos los cálculos. En la fábrica le entregaban hojas con las fórmulas preimpresas y el realizaba la “tediosa” tarea de calcular los resultados parciales y finales. La conclusión fue inevitable: había que crear una máquina a la que se alimentara con datos y que automáticamente genere los resultados. Habló con sus padres y algunos amigos quienes le prometieron ayudarlo económicamente. Renunció al trabajo y junto a otros amigos comenzó, en 1936, el diseño y la construcción de la Z1.

Las máquinas de calcular de la época estaban basadas en el sistema decimal (sistema de numeración que utiliza 10 dígitos, del 0 al 9) y poseían componentes mecánicos rotativos. La formación profesional de Zuse y su espíritu creativo lo condujeron al sistema binario (utiliza dos dígitos, 0 y 1). Usó láminas de metal que sólo podían tener dos posiciones; el movimiento de las láminas en una dirección implicaba el traslado de otros componentes en otros niveles de la máquina, incluyendo movimientos en una dirección perpendicular a la del sentido original. Tras dos años de trabajo (1938), la primera computadora estaba en condiciones operativas y podía calcular un determinante de 3 x 3. Operaba con números de punto flotante y la memoria, constituida por láminas de metal, permitía almacenar hasta 16 números. Los datos se ingresaban mediante un teclado, el programa se introducía mediante una cinta perforada y los resultados se mostraban mediante lámparas eléctricas. La Z1 era un aparato absolutamente mecánico en su funcionamiento y altamente complejo en su estructura interna, pero realizaba cálculos y resolvía el nivel de problemas para los cuales fue diseñada. Era el momento de perfeccionarla, incluyéndole dispositivos eléctricos o electrónicos.

Un ingeniero electrónico le sugirió la utilización de tubos al vacío; los cálculos mostraron que necesitaban más de 2000 tubos, cientos de componentes adicionales y una enorme cantidad de energía para su funcionamiento. Consultaron con otros especialistas en la Universidad y la conclusión fue unánime: no era factible una máquina con tales características. En 1945, siete años después, Eckert y Mauchly construyen la ENIAC, una computadora electrónica digital que tenía más de 17000 tubos al vacío, pesaba 30 toneladas y consumía entre 130 y 140 kilowatts de energía.

DURANTE LA GUERRA

El comienzo de la Segunda Guerra Mundial interrumpe los trabajos de Zuse, ya que es convocado a combatir como soldado. Varios científicos tratan de convencer a los militares sobre la importancia de las ideas de Zuse. Les ofrecen concluir en dos años un equipo automático de defensa antiaérea; son rechazados porque los militares consideran que en dos años la guerra ya habrá terminado. Al final, logran convencerlos y tras seis meses de servicio, Zuse retorna a la fábrica de aviones Henschel. En 1940 desarrolla dos máquinas que miden automáticamente ciertos parámetros de un proyectil, transforman las medidas analógicas en un número digital y realizan cálculos basados en esos números. Estas máquinas son consideradas los primeros convertidores analógico-digitales que incluyen etapas de cálculo digital. Durante ese año fabrica la segunda computadora, la Z2, cuyo procesador está construido con relés mientras que la memoria sigue siendo mecánica. Zuse exhibe la Z2 ante la Oficina de Investigaciones Aeroespaciales, la cual decide financiar parcialmente la construcción del siguiente modelo. En paralelo a su trabajo en la fábrica de aviones, Zuse crea su propia empresa: “Zuse Ingenierurbüro und Apparatebau, Berlin”, la primera empresa en la mundo dedicada exclusivamente a la fabricación de computadoras, otra información escasamente conocida del científico alemán.

La Z3 se termina en 1941: sólo tiene componentes eléctricos y una memoria de 64 palabras. La unidad aritmética y de control utiliza 1200 relés mientras que la memoria emplea 1400 relés. Un nuevo contrato y comienza la construcción de la Z4. Tendrá una memoria de 1024 palabras de 32 bits y cuando está terminada (1945) la guerra ha finalizado para los alemanes. Zuse huye de Berlín, ocupada por los rusos, y se traslada junto a la Z4 al sur de Alemania. Allí es entrevistado por ingleses y norteamericanos, a la búsqueda de científicos para llevar a sus países. Nuevamente, sus máquinas e ideas son rechazadas y debe permanecer estacionado hasta nuevo aviso.

DESPUÉS DE LA GUERRA

En una pequeña aldea de los Alpes e imposibilitado de continuar trabajando en su empresa, encuentra el tiempo necesario para concentrarse en el problema del procesamiento de datos. Como resultados de sus estudios, diseña el primer lenguaje de programación de alto nivel: el plankalkül (Cálculo de Programas). Zuse comprendió que sus primeras computadoras eran básicamente máquinas algebraicas construidas para realizar solamente cálculos técnicos y científicos. Ahora era el tiempo de fabricar máquinas “lógicas” que permitieran el procesamiento de símbolos. Lamentablemente, las condiciones técnicas y económicas del confinamiento impidieron que Zuse concretara en la práctica tanto su “maquina lógica” como el plankalkül. Siguió generando ideas y proyectos que se adelantaban a su época: un dispositivo acoplado a la Z4 permitiría tipear en un teclado fórmulas matemáticas según la notación convencional y la máquina se encargaría de transformarlo en código assembler.

En 1949, un profesor de la Universidad de Zurich decide alquilarle la Z4 y ponerla en operación en Suiza; incluye como condición de alquiler la impresión automática de los resultados mediante una máquina de escribir. Con el dinero del alquiler reflota su compañía y comienza la fabricación de nuevos modelos (Z5, Z6,....., Z22) hasta que la competencia de los productos norteamericanos lo lleva a la quiebra en 1962. Para colmo de males, un juez alemán le niega la patente de la Z3 por considerarla “ausencia de inventiva”. Recién en sus últimos años, logra el reconocimiento de numerosas universidades, asociaciones científicas y del gobierno alemán. Konrad Zuse fallece en Alemania en 1995.

Numerosos historiadores coinciden en que los nazis perdieron la guerra en Stalingrado. Zuse no era nazi, su gran pasión fueron las computadoras y de su mente privilegiada surgieron ideas que sólo pedían dinero, tiempo y colaboradores para ponerlas en práctica. Haciendo un ejercicio de historia-ficción (“hipótesis contrafácticas”) podríamos suponer que la poderosa maquinaria de guerra alemana habría sido imbatible con las computadoras que Zuse podría haber construido. Por suerte ello no sucedió. Los inevitables burócratas que rechazaron las ideas de Zuse evitaron que el Holocausto tuviera dimensiones aún más terribles. Sino, tal vez, estaríamos por ir a comprar el nuevo entorno operativo “Fenster Vista”.

viernes, 20 de julio de 2007

ETERNA ADOLESCENCIA


Hace unos años se estrenó una película francesa cuyo argumento consiste en la -primero preocupación y luego- desesperación de los padres de un “treintiañero” cuando él mismo se niega a abandonar el hogar paterno y asumir las responsabilidades propias de su edad. ¿Moda pasajera o símbolo de los tiempos?. Lo concreto es que el fenómeno crece y ya es objeto de interés de los cientistas sociales.

Muy diferente fue la situación que encontró el antropólogo Hans Hoffmann cuando estudió a las tribus Galla en la lejana Etiopía. Los roles y/o tareas que los varones de la tribu podían desarrollar estaban estructurados según cinco etapas denominadas Dabella, Folle, Kondala, Luba y Yuba. Cada integrante de esa sociedad permanecía ocho años en una etapa para luego pasar, automáticamente, al nivel superior. Lo peculiar de la situación era que se ingresaba al primer nivel en el preciso momento en que el padre abandonaba el último nivel; el hijo ingresaba a la etapa Dabella cuarenta años después que lo había hecho su padre (el período de cuarenta años se mantenía aunque el padre hubiera fallecido antes de concluirlo).

Describamos las tareas de cada nivel: durante su estadía por Dabella, los varones no podían mantener relaciones sexuales y “vagabundeaban” pidiéndole comida a las mujeres casadas. En la siguiente etapa podían mantener relaciones sexuales sin “formalizarlas” y pasaban gran parte de su tiempo organizando procesiones y preparando máscaras alusivas a las mismas. En el nivel Kondala se convertían en guerreros y podían casarse. El coraje y la destreza que mostraron durante ese período eran la mejor “carta de presentación” para ocupar los cargos ejecutivos, administrativos o religiosos, disponibles sólo para quienes pertenecían al nivel Luba. Durante el último período se transformaban en consejeros de los nuevos “funcionarios”, transmitiéndoles la experiencia recogida durante los anteriores ocho años. La descripción concuerda bastante con lo que denominamos niñez, adolescencia, juventud, madurez y vejez.

La rigidez del sistema podía dar lugar a situaciones que afectarían la supervivencia de la tribu: supongamos que un varón ingresaba al sistema con 13 años y su hijo nacía cuando tenía 30 años (recordemos que sólo podían casarse en el tercer nivel). El padre se “jubilaba” con 53 años (13 + 40), y sólo en ese momento el hijo ingresaba al nivel Dabella (con 23 años). Durante los siguientes ocho años era un “mantenido” y seguía sin poder responder a los requerimientos de sus hormonas sexuales. Su vida se complicaba cuando lo mandaban a pelear teniendo más de 40 años contra enemigos, probablemente más jóvenes y fuertes. La tribu podía ser fácilmente derrotada en las batallas si muchos de sus guerreros estaban en esa condición.

Podemos analizar otras situaciones: un padre tiene dos hijos separados aproximadamente 10 años en sus respectivas fechas de nacimiento; cuando el padre concluye la etapa Yuba, los dos hijos ingresan al sistema el mismo día y se mueven a lo largo del mismo en forma simultánea. Es altamente probable que uno de los dos no sincronice su edad cronológica con las tareas que la tribu le permita o le obligue a realizar. También puede darse el caso que se ingrese al primer nivel sin siquiera haber nacido: un padre ingresa muy joven al sistema y tiene un hijo 50 años después. Si bien el nacimiento se produce 10 años después de su retiro, las reglas del sistema indican que el recién nacido pertenece al segundo nivel y que al cumplir 6 años lo pueden mandar a combatir (o casarse) y que se jubilará con sólo 30 años de edad.

Lo fascinante de la situación fue analizar como pudo sobrevivir una sociedad en la que los roles no dependían de la edad cronológica, del conocimiento o de la fuerza física sino que estaba impuesta por el azar representado en la fecha de nacimiento de cada individuo. ¿Acaso no nos llama la atención cuando un “niño prodigio” ingresa a la Universidad con menos de 15 años, o un delantero sigue metiendo goles con más de 35 “pirulos”, o el joven brillante (con el doctorado de alguna universidad del primer mundo bajo el brazo) a quien se le da una responsabilidad de gobierno habitualmente a cargo de una persona de mayor edad?. Las sociedades humanas se han desarrollado bajo la constante de definir privilegios y obligaciones diferentes según la edad de cada integrante de la misma. La sustentabilidad de una sociedad está directamente relacionada con una adecuada distribución de roles y tareas según la edad cronológica de los individuos que la integran. Algunas de las tribus Galla, a pesar de su peculiar sistema de organización social, sobrevivieron.

Hoffmann estudió al sistema utilizando una técnica matemática denominada cadenas de Markov. Andrei Andreievich Markov (1856-1922) fue un notable matemático ruso que postuló el principio de que existen ciertos procesos dinámicos estocásticos cuyo futuro depende de su presente, pero no de su pasado. Un proceso se define como estocástico cuando su evolución no se conoce con certeza y sólo se le puede asignar una distribución de probabilidad a la misma. Hoffmann asumió que, al definirse por primera vez el esquema de etapas, la mayoría de los varones de la tribu estaba en el nivel adecuado y estableció otras suposiciones necesarias para realizar el cálculo de las transiciones entre generaciones. El resultado obtenido al determinar, mediante cadenas de Markov, la distribución de los niveles en el largo plazo mostró que no se producían cambios significativos en la proporción de individuos que integran cada nivel y por lo tanto el sistema era estable.

Hoffmann fue un pionero en el uso de herramientas matemáticas de cierta complejidad en estudios antropológicos. Sería interesante especular cuáles utilizarán los antropólogos del futuro cuando les toque estudiar a nuestros “eternos adolescentes”.

martes, 17 de julio de 2007

EL LADO OSCURO DEL MONITOR


La Agencia de Protección Ambiental (EPA) de los Estados Unidos pronostica que 250 millones de computadoras se volverán obsoletas en los próximos cinco años generando una impresionante masa de “basura electrónica” o “residuo electrónico” que preocupa seriamente a los defensores del medio ambiente. El perjuicio con mayor impacto ambiental se debe al plomo contenido en los tubos de rayos catódicos (CRT) de los monitores de las computadoras y de los televisores y al mercurio incorporado en las “motherboards”. Un monitor de computadora puede contener hasta 4 kg de plomo, motivo por el cual la EPA ha modificado la clasificación de los CRT pasándolos de residuo a material reciclable. Esta modificación se vuelve imprescindible porque los residuos se descargan en los basureros municipales para su entierro o incineración. De esta forma, tanto el plomo como el mercurio y otros elementos químicos pesados presentes en los aparatos electrónicos, contaminan las aguas subterráneas o aumentan la concentración de gases tóxicos en la atmósfera.


La obsolescencia planificada es una herramienta para dinamizar el mercado. El deseo de novedad del consumidor puede llevarle a pagar con gusto el precio que supone la renovación cada poco tiempo. Las modificaciones (verdaderos cambios tecnológicos o mero maquillaje) incorporadas en las computadoras, teléfonos celulares, televisores, reproductores de video, equipos de música y demás "gadgets" son el combustible que potencia las ventas en la industria electrónica. El lado oscuro del proceso radica en la creciente acumulación de basura electrónica, que sólo en los Estados Unidos se aproxima a las 12 millones de toneladas enterradas en basureros y promete aumentar significativamente en los próximos años.


Reciclar es “fashion” pero caro; entonces usemos la alternativa más barata: juntamos toda la basura electrónica en un container y la embarcamos para China (el basurero “high tech” de Asia). En el sur del país asiático, y sin ART que los cubra, miles de trabajadores desarman, clasifican y recuperan piezas que constituirán la materia prima de numerosos aparatos “Made in China”. Naturalmente, esos recicladores están expuestos a los productos tóxicos y se desconoce la manera en que se elimina el material no reutilizable. Por otra parte, Estados Unidos es el único país desarrollado que no firmó el Acuerdo de Basilea, un tratado ambiental promovido por las Naciones Unidas, que prohibe la exportación de residuos contaminantes desde los países desarrollados hacia terceros países. Hay una razón: exporta más del 50% de su basura electrónica, principalmente a China, India y Paquistán.


Un senador del estado de California propuso el “impuesto al residuo electrónico”, consistente en un aumento de 10 dólares en el precio de cada computadora o televisor para compensar los gastos que le demandará al estado las tareas de reciclado. Hewlett Packard desarrolló una intensa tarea de “lobby” hasta conseguir el veto a la ley por parte del gobernador del estado. La compañía aduce que ese impuesto les resta competitividad y propone un acuerdo que involucre a todo el país en el cual los municipios recolectan las computadoras usadas y los fabricantes se comprometen a reciclarlas.


Mientras se discutía ese acuerdo, la fábrica de computadoras Dell utilizó una variante alternativa, aunque bastante criticada: el trabajo de reciclado era realizado por los reclusos de varias cárceles federales. La ausencia de un gremio “combativo” permite que las condiciones laborales sean menos rigurosas de lo que las normas de protección personal recomiendan para este tipo de tareas. La presión ejercida por un grupo ambientalista californiano forzó a la compañía Dell a concluir el trato con el organismo federal y su reemplazo por empresas privadas especializadas en las tareas de reciclado.


Muchos lectores se estarán preguntando el porque no donar las computadoras obsoletas. Efectivamente, muchas se donan pero llegan incompletas: faltan periféricos, algunas llegan sin el sistema operativo (S.O.) y otras con un S.O. en el cual no corren los programas que las organizaciones sin fines de lucro ―habituales receptoras de las donaciones― requieren para realizar sus tareas (correo electrónico, procesadores de texto modernos, posibilidad de una conexión a Internet, etc). El resultado final es que las organizaciones receptoras deben cargar con el costo de enviar al equipo para reciclado.


Mientras los japoneses están comenzando a fabricar computadoras libres de plomo, en Estados Unidos el concepto que está en discusión es el de la “responsabilidad del fabricante”. Hasta ahora se refería a la calidad del producto terminado y la correspondiente garantía de uso. Se intenta modificarlo para que incluya todas las consideraciones ambientales. En palabras de Gary Davis, director del Centro para Tecnologías Limpias de la Universidad de Tennessee, “los fabricantes deben cargar con un cierto grado de responsabilidad por el impacto ambiental del producto a través del ciclo de vida del mismo, desde la extracción de la materia prima, el uso del producto y la disposición última del mismo”. La idea es forzar al fabricante, para que a la hora del diseño, considere de igual importancia los aspectos económicos, estéticos y ambientales.


Otro enfoque es el sistema de producción inversa consistente en el diseño de equipamiento para recuperar y reutilizar todo el material contenido en la basura electrónica: cobre, aluminio, oro, plomo, los diferentes plásticos, el vidrio y los cables. El objetivo final es crear un proceso de fabricación de lazo cerrado que no sólo mejorará los ecosistemas por menor contaminación, sino que también reducirá las tareas mineras debido a la menor demanda de materias primas. Por el momento, la dificultad radica en hacer que estos procesos sean económicamente factibles.

viernes, 13 de julio de 2007

FRANKENSTEIN DESENCADENADO


A partir de la década del 50 comenzó a desarrollarse una revolución silenciosa en vastos sectores del planeta: “La Revolución Verde”: la introducción de nuevas variedades de plantas unido a importantes inversiones en el control del agua para riego, la incorporación de cantidades crecientes de fertilizantes y pesticidas y ciertas innovaciones genéticas incrementaron la producción de alimentos a un nivel sin precedentes, no sólo en los países desarrollados sino también en algunas economías en vías de desarrollo. Año tras año, aumentó el área cultivada y la producción de alimentos. La combinación de mayor disponibilidad de alimentos, caída de los precios, aumento del comercio internacional y mejoras en la calidad del producto final salvó de la hambruna a millones de seres humanos.

Pero la población mundial sigue creciendo; se pronostica para el año 2015 una cantidad superior a los 7.000 millones de habitantes. Otros proyectan que en el 2025 seremos 8.000 millones compitiendo por los recursos alimentarios del planeta. El problema radica en que las áreas aptas para cultivo, bajo el paradigma de la revolución verde, están casi en su totalidad ya completamente ocupadas. Sólo podría incrementárselas a costa de la destrucción de selvas y bosques, con los consecuentes perjuicios al medio ambiente y una significativa pérdida de biodiversidad. Los rendimientos en las áreas actualmente cultivadas están muy próximos a los que se obtienen en los laboratorios de investigación científica y por lo tanto no puede esperarse un aumento significativo de los mismos con las tecnologías de la revolución verde.

La revolución verde tuvo sus perdedores: los pequeños productores de las zonas pobres del planeta, sin los recursos económicos, culturales y de infraestructura imprescindibles para adaptar la nueva tecnología, vieron como los precios internacionales de sus productos caían por debajo de sus costos, haciéndolos retroceder a economías de subsistencia. El uso indiscriminado de los pesticidas produjo severos daños en la salud de numerosas comunidades agrícolas. Los pesticidas también eliminaron a varios predadores naturales de los insectos dañinos y, a través del mecanismo de la selección natural, permitieron la expansión de especies resistentes a los mismos. Además, las tecnologías de la revolución verde requieren de importantes cantidades de agua, recurso que se está tornando escaso o costoso para el mantenimiento de rendimientos crecientes.

Los centros de investigación científica en biotecnología agrícola del Primer Mundo propusieron una solución: la creación de variedades vegetales genéticamente modificadas (GM) con tolerancia a herbicidas y resistentes al ataque de las plagas. El resultado: un aumento significativo en la producción por hectárea y por ende la posibilidad de incrementar significativamente la disponibilidad mundial de alimentos sin la necesidad de aumentar el área cultivada.

Son las plantas transgénicas; llevan en su genoma uno o más genes (denominados transgenes) que provienen de otra especie vegetal, animal o microbiana. Mediante una pistola de genes se disparan micropartículas de oro recubiertas con ADN hacia el interior de las células vegetales. Cuando llegan, el ADN se separa de las micropartículas y se inserta en los cromosomas de la planta huésped. El objetivo de esta tarea, tecnológicamente compleja, es que las plantas fabriquen su propio insecticida, sean inmunes a las enfermedades y eviten ser “liquidadas” por los herbicidas de amplio espectro que se encargan de aniquilar las malezas que intentan competir por el espacio y los nutrientes.

A partir de los exitosos resultados obtenidos, los científicos están concentrados en la obtención de nuevas variedades; algunas producirán altos contenidos de aceites, otras serán ricas en proteínas y otras en aminoácidos, todas ellas de indudable interés comercial. Se prevee una “Tercera Ola” de plantas GM orientadas a la obtención de productos farmaceúticos, tales como vacunas o insulina, y plantas “diseñadas” para la producción de plásticos, con el objetivo de reemplazar los procesos actuales que utilizan como materia prima hidrocarburos contaminantes y no renovables.

Las plantas GM son el eje de furiosos debates entre sus defensores y sus detractores. La defensa llama a J. Mosterín, catedrático de Filosofía, Ciencia y Sociedad del Consejo Superior de Investigaciones Científicas (CSIC) de España. Mosterín plantea que son tres las razones por las cuales deberíamos alarmarnos ante la introducción de un nuevo alimento: 1) porque representa peligro cierto para la salud humana; 2) porque puede hacer sufrir a algún animal sensible; y 3) porque disminuya la biodiversidad de la biósfera. El científico español afirma que, a la fecha, ningún estudio publicado en las revistas científicas de prestigio ha indicado que los alimentos obtenidos a partir de plantas GM produzca daño alguno en la salud de los seres humanos (por el contrario, el mal de la “vaca loca” ha ocasionado la muerte de personas y es el resultado de un proceso agropecuario no transgénico). Respecto al segundo motivo, Mosterín establece que las plantas no pueden sufrir porque no tienen un sistema nervioso, y por lo tanto no hay restricciones éticas para su producción.

Respecto al problema de la pérdida de biodiversidad, Mosterín sostiene que “la agricultura es el mayor enemigo de la biodiversidad”. En cada área cultivada, una especie de interés comercial está desplazando a las especies vegetales originales y también a la fauna que habitaba ese ecosistema. La tala de bosques o selvas tiene como principal objetivo agregar áreas agrícolas para sostener el equilibrio entre la oferta y la demanda de alimentos, a costa de un impacto muy perjudicial en la biodiversidad. En conclusión, si logramos incrementar la producción por hectárea (las plantas GM lo hacen), podemos evitar el aumento del área cultivada y entonces los Estados podrán adoptar medidas para recuperar áreas boscosas y selváticas con la correspondiente protección a la biodiversidad. Es importante aclarar que una planta GM representa un riesgo para el ambiente sólo si puede sobrevivir por si misma fuera del cultivo o si se cruza naturalmente con sus “parientes silvestres” que conviven en la misma región (el gen se transfiere a través del polen).

Los adversarios de las plantas GM no dudan en utilizar slogans fuertes y mediáticos: “Comida de Frankenstein”, “Bomba atómica biológica”, “Manipulación genética”, “Productos contra-natura”. Los defensores contraatacan: “¿Por qué tanto miedo?”, “Menosprecio de la ciencia”, “Nada es menos natural que lo que llamamos Naturaleza”, “Los que dudan del progreso es porque la historia no ha mantenido las promesas que esperaban de ella”.

El debate está abierto; lo importante es que sigamos escuchando y leyendo opiniones de unos y otros, pero que nuestra decisión final se base en argumentos científicos y/o político–estratégicos y no en ideología o sentimentalismo.

martes, 10 de julio de 2007

CONTRA EL GRAN HERMANO


El proceso de encriptamiento es la transformación de datos a una forma tal que es prácticamente imposible de leer sin el conocimiento apropiado (clave). Su objetivo es asegurar la privacidad manteniendo oculta la información para quienes no deberían conocerla, aún para quienes podrían tener acceso a la misma. El procedimiento inverso se denomina desencriptamiento y es la transformación de los datos encriptados a una forma legible. Las técnicas de encriptamiento y desencriptamiento requieren del uso de cierta información secreta denominada clave. La clave es un número que trabaja con un algoritmo de criptografía para producir un texto cifrado específico.

La generación de mensajes secretos es una práctica que tiene más de 2000 años de antigüedad. Las técnicas más utilizadas eran las claves de desplazamiento, una de las cuales fue denominada “clave cesárea” porque fue empleada por el emperador romano Julio César. El modus operandi de las claves de desplazamiento es el siguiente: se escribe el alfabeto y a continuación los dígitos del 0 al 9; se escribe debajo la misma secuencia desplazada a la derecha un determinado número de posiciones. Si seleccionamos un desplazamiento de 10 caracteres resulta:

A B C D E F G H I J K L M N Ñ O P Q R S T U V W X Y Z 0 1 2 3 4 5 6 7 8 9

0 1 2 3 4 5 6 7 8 9 A B C D E F G H I J K L M N Ñ O P Q R S T U V W X Y Z

Para cifrar al mensaje, se tomaba cada símbolo del mensaje original, se lo buscaba en la fila superior y se lo reemplazaba por el símbolo de la fila inferior. Por ejemplo, la palabra CLAVE se codificaba mediante 2B0M4 (para un desplazamiento de 10 caracteres).

Es evidente que este método de codificación es muy simple de descifrar, pero puede mejorárselo notablemente si se utiliza una clave de desplazamiento distinta para cada símbolo del texto original utilizando algún mecanismo aleatorio (donde intervenga el azar) para definir la magnitud del desplazamiento.

La ruleta es un mecanismo aleatorio que genera números al azar entre 0 y 36. Ahora, para cifrar nuestro mensaje podríamos utilizar el siguiente procedimiento: giramos la ruleta hasta obtener un número, supongamos el 5; desplazamos la fila inferior 5 lugares, buscamos el símbolo en el mensaje original y seleccionamos, al igual que antes, el símbolo desplazado en la fila inferior. Repetimos la tarea con la ruleta y volvemos a desplazar la fila inferior según el nuevo número obtenido y buscamos el siguiente símbolo del texto original y su correspondiente desplazado (es muy probable que dos símbolos originales idénticos tengan diferentes caracteres en el texto cifrado). Continuamos hasta el final del texto original y obtenemos un mensaje codificado cuya longitud es idéntica a la del original.

Para que nuestro receptor pueda descifrar el mensaje necesitamos enviarle previamente la clave. Era la forma habitual de operación de los espías: partían con una libreta que contenía varias páginas, cada una de ellas contenía un conjunto de números aleatorios y utilizaban una página por cada mensaje que transmitían o recibían. Eran libretas de uso único, porque se utilizaban una sola vez, ya que la reiteración de mensajes con la misma clave permitiría su desciframiento por parte de los especialistas en el tema. Eran indescifrables sin la página de números aleatorios correspondiente ya que carecían de estructura interna y aún en el caso de conseguirse el mensaje original no brindaban ventaja alguna para conocer los detalles del siguiente mensaje cifrado.

La criptografía convencional, también denominada criptografía simétrica, en la cual el receptor y el emisor conocen y utilizan la misma clave, funcionó perfectamente mientras el número de mensajes era relativamente reducido. La expansión de Internet, el uso del correo electrónico, el progresivo aumento en el comercio electrónico (e-commerce) y el creciente número de mensajes secretos transmitidos mediante computadoras interconectadas ha dado lugar a un crecimiento exponencial en el número de emisores y receptores y surge el problema de la generación, transmisión y almacenamiento de las claves. En la medida en que reparto mis claves a diferentes personas aumenta el riesgo que mis mensajes sean leídos por quienes no están autorizados a hacerlo. Si, por el contrario, utilizo una clave diferente para cada receptor requiero de procedimientos altamente eficaces para generarlas, mecanismos seguros para transmitirlas, y esquemas confiables para su almacenamiento y recuperación.

El problema se resolvió mediante la criptografía de clave pública (criptografía asimétrica) desarrolla en 1975 por Whitfield Diffie y Martin Hellman, ingenieros electrónicos de la Universidad de Stanford, EE.UU. Ahora un receptor posee dos claves: una pública y una privada; la clave pública es, precisamente, de conocimiento público mientras que la privada se debe mantener en secreto. Con este sistema podemos colocar nuestra clave pública al alcance de todos, inclusive en Internet. La genialidad del desarrollo de Diffie y Hellman radica en lo siguiente: cuando nuestro emisor desea enviarnos un mensaje secreto, toma nuestra clave pública para encriptar su mensaje; al recibirlo usamos nuestra clave secreta para desencriptarlo. Cualquier persona que intercepte el mensaje no podrá conocer su contenido si no conoce nuestra clave privada. El conocimiento de la clave pública no es condición suficiente para obtener el mensaje original.

La aplicación concreta de las ideas de Diffie y Hellman fue realizada en 1977 por tres científicos del Massachusetts Institute of Technology (MIT): Ronald Rivest, Adi Shamir y Leonard Adleman quienes utilizaron los “populares” números primos para desarrollar una aplicación de uso comercial que denominaron RSA. La idea básica consiste en la dificultad de encontrar los dos factores primos cuya multiplicación genera un número compuesto. Éste es un problema difícil si cada uno de los números primos a multiplicar tiene más de 60 dígitos y por lo tanto generan un número compuesto de más de 120 dígitos. Los matemáticos denominan problemas difíciles a aquellos que demandan una enorme cantidad de operaciones de cálculo, aunque la lógica de la solución sea relativamente sencilla. El número 15 es un número compuesto generado a partir de los números primos 3 y 5. Encontrar los factores primos de 15 es sencillo; no lo es el encontrar los factores primos de números compuestos de 120 dígitos por la cantidad de cálculos que deben realizarse, aún para las computadoras más veloces.

La trascendencia que actualmente tiene el tema del encriptamiento de la información se vio reflejada en el juicio que el gobierno de los Estados Unidos inició contra Phil Zimmerman, creador del software PGP. Son las iniciales de Pretty Good Privacy (Muy Buena Privacidad), un excelente programa que contiene rutinas criptográficas para el correo electrónico, aplicaciones para almacenamiento de archivos de claves y puede correr sobre múltiples plataformas. El software PGP es un programa de código abierto, distribución libre y gratuita y relativamente invulnerable a los ataques externos.

Se lo cataloga como un criptosistema híbrido porque combina los mejores detalles de la criptografía convencional y de la criptografía de clave pública. En primer lugar, PGP comprime el texto original; esta operación de compresión (zip) no sólo ahorra tiempo de transmisión y espacio en disco, sino que también mejora la seguridad del texto cifrado. Una de las técnicas para descifrar mensajes consiste en encontrar patrones o tendencias que se reiteran en el texto codificado y suponer a partir de los mismos, símbolos posibles del texto original; la operación de compresión enmascara esas tendencias y dificulta la búsqueda de patrones. Con el texto original ya comprimido, PGP obtiene en forma aleatoria (al azar) una clave de sesión de uso único. Esta clave se genera a partir de los movimientos del mouse y de las teclas tipeadas. Se utiliza esta clave en un algoritmo de encriptamiento simétrico para cifrar al texto comprimido. La clave de sesión de uso único se encripta con la clave pública del receptor utilizando la tecnología RSA y ambos, el texto comprimido cifrado con el algoritmo simétrico y la clave de sesión encriptada con RSA son transmitidos al receptor vía correo electrónico. El receptor utiliza su clave privada para recuperar la clave de sesión de uso único y una vez recuperada ésta, es utilizada por PGP para descifrar el texto original.

Phil Zimmerman tuvo que enfrentar un juicio iniciado por el gobierno de los Estados Unidos. Su delito fue crear una versión freeware del software PGP y permitir que cualquiera pudiera bajarlo de Internet. Se lo consideró un delito porque PGP fue catalogado como un algoritmo de encriptamiento de grado militar, cuya exportación está prohibida. Zimmerman, un auténtico liberal quiso que los ciudadanos norteamericanos pudieran enviarse mensajes por correo electrónico sin que el gobierno pudiera interceptárselos. Por el otro lado, las autoridades se dieron cuenta que un software de encriptamiento al cual “una computadora, construida con 1000 millones de chips más poderosos que cualquiera de los existentes en la actualidad, requeriría 10 trillones de años para probar todas las combinaciones posibles que usa el algoritmo de encriptamiento del PGP”, le impediría leer el correo electrónico de terroristas, narcotraficantes, evasores de impuestos, etc.

Se descubrió que Estados Unidos y alguno de sus aliados utilizan una red de satélites y computadoras para espiar la información que circula entre empresas y particulares en busca de información que responda a ciertas consignas. Se trata de una clara violación de los derechos por parte del estado contra los ciudadanos. Por suerte, Phil Zimmerman nos regaló el PGP; por suerte, Phil Zimmerman ganó el juicio contra el estado. El Gran Hermano tendrá que respetar nuestra privacidad.

viernes, 6 de julio de 2007

SHAREWARE, FREEWARE y SOFTWARE DE DOMINIO PÚBLICO



Los programadores de la etapa previa al surgimiento de la Computadora Personal IBM solían intercambiar sus desarrollos y copias de otros programas a través de los grupos de usuarios y de las BBS (Bulletin Board System). Una BBS es un centro de mensajes electrónicos que sirve a grupos de interés específicos. Establecida la conexión vía modem, se puede subir o bajar programas e interactuar con otros “chateando” o transmitiendo correo electrónico.

En 1982, Andrew Fluegleman había desarrollado un soft de comunicaciones (PC-Talk), mientras que Jim Knopf ultimaba los detalles de su excelente gestor de bases de datos (PC-File). Al no poseer una estructura de ventas ni la experiencia comercial adecuada para promover la misma a través de los negocios de computación, deciden utilizar las redes de distribución de las BBS permitiendo que los programas sean copiados, aunque solicitándole al futuro usuario el envío de una cierta cantidad de dinero para permitirles continuar con el desarrollo de los mismos. A cambio de ese pago, el usuario recibirá todo el soporte técnico que necesita para obtener la máxima prestación del software.

Fluegleman denominó freeware a este esquema de comercialización. No fue una elección feliz porque no era una copia gratis (free) tal como si lo era el Software de Dominio Público (Public Domain Software) que ya existía desde la década del 70. Otra equivocación de Fluegleman fue incluir el código fuente de su programa junto a la copia que se bajaba de la BBS. Si bien este procedimiento era lo habitual con los programas de dominio público, el joven programador tuvo que “aguantar” la comercialización de numerosas versiones mejoradas de su PC-Talk realizadas por colegas que le agregaban sólo algunos detalles menores a la versión original.

Jim Knopf no cometió los errores de Fluegleman y transformó a su PC-File en un negocio que le redituó varios millones de dólares. El tercer héroe de nuestra historia se llama Bob Wallace y también ganó una importante cantidad de dinero mediante el PC-Write, un programa para el procesamiento de textos. Estos tres programas establecieron en los usuarios el nivel de confianza necesaria para que éstos decidieran, en numerosas oportunidades, confiar en los desarrollos realizados por uno o pocos programadores en vez de optar por los productos de la industria establecida.

A partir del auge de la computadora personal, se produce un crecimiento exponencial en el número de programas que se comercializan mediante el procedimiento de copiado con respaldo del autor. Un columnista de una revista de computación, Nelson Ford, decide realizar un concurso para encontrar un nombre que reemplace al poco afortunado elegido por Fluegleman. El ganador fue shareware, denominación que Bob Wallace había utilizado para su PC-Write.

Resumiendo: la utilización de un programa shareware obliga a pagarle a su autor la cantidad que éste solicita, teniendo como contrapartida la obligación del mismo de proveer manuales y apoyo técnico permanente.; los programas shareware no son de dominio público. Los programas freeware implican que el usuario puede utilizarlos sin necesidad de pagar, aunque el programador retiene los derechos de autor, con todas las implicancias legales correspondientes. Un software es de dominio público sólo si el programador explícitamente así lo define en el mismo.

El crecimiento del negocio del shareware trajo aparejado un cierto número de problemas. Vendedores con pocos escrúpulos ofrecían catálogos con software “gratis”, aunque luego le exigían al usuario un pago que nunca llegaba al programador original. Para defenderse, los programadores envíaban al mercado versiones “desmanteladas” de sus creaciones, obligando al usuario a un pago adicional para obtener la versión completa del software. Si el programa no obtenía una rápida salida comercial, los pocos usuarios que lo habían comprado se encontraban sin soporte técnico y sin un responsable que asumiera los compromisos aparentemente establecidos.

La industria del shareware se encontraba ante una situación crítica. La solución fue crear la Asociación de Profesionales del Shareware (Association of Shareware Professionals, ASP). Ford, Wallace, Knopf y Tom Smith (creador del Procomm, un excelente programa de comunicaciones) crean la Asociación en 1987, comprometiéndose a no desmantelar las versiones de sus programas que salían al mercado, a tratar al usuario con respeto, a garantizar un determinado nivel de soporte técnico e inclusive a devolver el dinero si el usuario no estaba conforme con la calidad del programa. Los programas que poseían el logo de la Asociación debían garantizar al usuario que sus problemas serían resueltos. Inclusive, la Asociación creó la figura del Ombudsman ASP para saldar cualquier disputa irresuelta entre el programador y su cliente. Otro aporte importante de la Asociación fue crear un listado de vendedores autorizados de shareware, quienes debían informar correctamente a los usuarios sobre el significado del esquema de comercialización shareware, fundamentalmente respecto a los derechos comerciales y legales del programador.

La década del 80 fue la época dorada para las aplicaciones shareware. La combinación de buenos programas orientados a aplicaciones de negocios junto al bajo costo de los mismos y el número creciente de usuarios de computadoras contribuyeron al florecimiento de la industria. La situación cambió abruptamente al principio de la década del 90: la baja en los precios de los productos de las grandes empresas y la aparición en el mercado de las “suites”, que integraban (bajo Windows) a procesadores de texto, planillas de cálculo, gestores de bases de datos y programas de diseño y gráficos a un costo relativamente bajo y con prestaciones de alta calidad implicó la paulatina desaparición de las aplicaciones shareware con orientaciones comerciales.

La industria del shareware respondió por el lado de los juegos y las utilidades. La estrategia comercial fue la siguiente: se podían obtener versiones shareware de diversos juegos (principalmente de acción) que sólo incluían los primeros niveles del mismo. Estos niveles eran exactamente iguales a los del juego completo, pero éste no podía comprarse como shareware sino a través de los canales habituales del software estándar. Los ejemplos más significativos de esta exitosa estrategia comercial fueron Doom, Duke Nuken y Quake. Otra estrategia fue reemplazar el esquema de programas desmantelados por versiones completas con límite de tiempo de uso.

La expansión de Internet abre el mundo a los programadores independientes. Ahora, más que nunca, un buen programa puede ser vendido de manera relativamente sencilla. La evolución tecnológica siempre genera perdedores: esta vez les toca a los malos programadores y a los negocios de venta de shareware.

lunes, 2 de julio de 2007

HISTORIA DE LAS COMPUTADORAS, PARTE 1


Los Precursores

En el año 1956 se recuperan unos planos, que habían desaparecido durante la Segunda Guerra Mundial, referidos a una máquina de calcular diseñada en 1623 por Wilhelm Schickard (1592-1635). En un pequeño pueblo en el sudoeste de Alemania, Schickard diseña y construye su “Reloj Calculador”. Era una máquina que podía sumar y restar, utilizando hasta 6 dígitos. Cuando el resultado excedía los 6 dígitos sonaba una campana que indicaba la condición de “overflow”. La máquina y los planos de fabricación de la misma desaparecieron por 300 años, hasta que son recuperados primero en 1935 y definitivamente en 1956. A partir de los mismos, se reconstruye la máquina en 1960 y se verifica que funcionaba correctamente.

El antecedente más concreto se refiere a la denominada “Pascaline”, una máquina de calcular de 5 dígitos construida por el francés Blaise Pascal en 1642. Tenía 21 años cuando decidió ayudar a su padre, recolector de impuestos, quien se pasaba horas sumando cifras. Construyó una máquina basada en pesos que subían y bajaban (la máquina de Schickard utilizaba engranajes), la cual perfeccionó hasta lograr que el resultado pudiera tener hasta 8 dígitos. El aparato podía restar, aunque lo hacía de una manera muy particular: si se deseaba restar 16 en una Pascaline de 6 dígitos había que sumarle el número 999984. Varias de estas máquinas se encuentran actualmente en diversos museos de ciencias.

Jacquard y sus telares

Durante los siglos XVIII y XIX la industria textil era una de las más competitivas y se guardaba con gran secreto cualquier innovación que pudiera incrementar la producción. El problema con los telares residía en la dificultad para manipular sincronizadamente un gran número de agujas y en distintas trayectorias. Se habían desarrollado varios procedimientos, pero todos ellos eran complicados, “pesados” y costosos. El francés Joseph Jacquard desarrolló un dispositivo que permitió automatizar a los telares y que un siglo más tarde sería una de las bases de las computadoras. La idea de Jacquard fue simple y brillante: se toma una tarjeta y se le hacen una serie de agujeros en los lugares donde se quiere que actúen las agujas; así las mismas construyen el tejido de una manera rápida y exacta. Cuando hay que modificar el diseño del tejido, solamente se cambia la tarjeta y la tarea se agiliza notablemente y se realiza con gran exactitud. Patentado en 1801, pronto hubo miles de telares Jacquard fabricando tejidos de los más variados diseños y a un costo inferior comparado con los anteriores productos. Para mostrar la efectividad de su invento, Jacquard fabricó un retrato de si mismo en cuero. El trabajo requirió la utilización de 20.000 tarjetas perforadas, pero el resultado fue impactante y el número de telares vendidos se incrementó considerablemente.

A comienzos del siglo XIX aparece en Europa otra máquina automática: Wolfgang von Kempelen, un inventor húngaro, recorre el continente exhibiendo al Autómata Ajedrecístico Maelzel, un aparato que derrota a numerosos contrincantes en el juego ciencia. Años después se supo que la máquina era un fraude, ya que era un jugador humano quien en su interior realizaba los movimientos. No obstante, el aparato de von Kempelem estimula a numerosos inventores a perfeccionar distintos dispositivos que juegan de acuerdo a programas preestablecidos.

Babbage y sus máquinas

Los desarrollos más significativos del siglo XIX y verdaderos precursores de las actuales computadoras fueron realizados por Charles Babbage, un científico inglés profesor de Matemáticas de la Universidad de Cambridge. Al verificar que ciertas tablas preparadas por la Sociedad de Astronomía inglesa estaban plagadas de errores, consideró imprescindible crear una máquina que pudiera realizar los cálculos exactamente. Esta máquina sería conceptualmente diferente a las existentes en la época y estaría constituida por cientos de engranajes, ejes, ruedas dentadas y contadores. La “Máquina Diferencial” (denominada así porque estaba basada en las tablas de diferencias de los cuadrados de los números) debería poder resolver cualquier problema de cálculo. Babbage solicitó y obtuvo del gobierno inglés una importante cantidad de dinero para llevar a cabo su proyecto.

Durante cuatro años, Babbage y sus colaboradores trabajan con desvelo en el proyecto. Tuvieron que fabricar numerosas piezas ya que en aquel momento la industria metal-mecánica estaba atrasada respecto a sus necesidades. Al final, calculan que la máquina podría llegar a pesar más de dos toneladas, pero que la tecnología para su construcción aún no existía. La experiencia adquirida en esos cuatro años le permite escribir un libro donde muestra los errores de la industria metalúrgica de la época y donde sugiere una enorme cantidad de mejoras. El libro es actualmente considerado el precursor de la ciencia denominada Investigación Operativa.

A pesar de la imposibilidad de la construcción de la máquina diferencial, Babbage continúa pensando en la solución al problema de los cálculos exactos. Diseña un aparato más poderoso, la “Máquina Analítica” la cual funcionaría en base a tarjetas perforadas similares a las inventadas por Jacquard. Este nuevo dispositivo no sólo realizaría las operaciones de suma, resta, multiplicación y división, sino que su diseño le permitiría “controlarse a si misma”. Los resultados de los cálculos intermedios serían realimentados en la máquina para resolver problemas más complejos sin la intervención de un operador humano. Según las palabras de Babbage: “¡Que la máquina se coma su propia cola!”. El diseño de la máquina incluía un “almacén” o memoria constituida por 1000 números de 50 dígitos que serían utilizados para “conducir” los procesos de cálculos. Por último, los resultados parciales y finales serían impresos en una serie de discos de cobre especialmente tallados. Babbage profetizó el control automático en la industria a partir de los conceptos de realimentación y memoria que incluía su máquina analítica.

La máquina analítica tampoco pudo ser construída debido a que la industria metalúrgica no estaba preparada para las innovadoras ideas de Babbage. El gobierno inglés dejó de subsidiarlo y el científico puso su propio dinero para continuar sus trabajos. Sus colaboradores, tras adquirir una experiencia inigualable para la época, paulatinamente lo abandonan y se transforman en líderes de la industria de máquinas-herramientas. Babbage muere en 1871.

Hollerith y el censo

El gobierno de Estados Unidos pretendía realizar un censo de su población cada 10 años. Al realizar el de 1880, se encuentran que demoran 7 años en completar el resumen de la información. Teniendo en cuenta el natural crecimiento vegetativo de su población era lógico suponer que tarde o temprano no alcanzarían los diez años entre los sucesivos censos para completar el trabajo. La solución la encuentra un estadístico, el Dr. Herman Hollerith, quien utilizando las ideas de Jacquard y Babbage consigue un contrato del gobierno americano para realizar la tarea y concluye su tarea demorando un tercio del tiempo del censo anterior.

Hollerith tiene una tremenda ventaja respecto a sus predecesores: la energía eléctrica. Construye la primer máquina de calcular eléctrica que usa tarjetas perforadas. Éstas flotaban en una pileta con mercurio; cuando las agujas telescópicas pertenecientes al cabezal lector de la máquina atravesaban un agujero de la tarjeta perforada y contactaban al mercurio, se cerraba un circuito eléctrico y se sumaba uno al número de censados. Convencido de la factibilidad comercial de su invento en otras áreas, amplia su empresa y vende dos sistemas contables basados en tarjetas perforadas a empresas ferroviarias. La fusión de su empresa con otras del ramo genera en primer término a la “Computing-Recording Company” y años más tarde a la famosa “International Business Machine” (IBM).