Para ver el tutorial de cómo utilizar excel dar click en el siguiente enlace:
sábado, 28 de septiembre de 2013
SECCIÓN LIBRE: ¿Cómo hacer uñas animal print de colores?
Como hacer un animal print en las uñas
Materiales
- Barniz blanco, amarillo, rosa, verde, azul, morado, rojo, naranja.
- Pluma para uñas negro
- Encapsulador
Pasos:
1. Se aplica en las uñas una base blanca
2. Se pone un punto de diferente color en cada uña hasta tener más de 5 puntos de color en cada uña.
3. Se hacen 2 figuras en forma de "C" alrededor de los puntos de colores.
4. Para finalizar se aplica un encapsulador o brillo.
TUTORIAL: Diagrama de flujo, algoritmos
DIAGRAMA DE FLUJO Y ALGORITMO
Algoritmo: Es un grupo de operaciones organizadas de manera lógica y
ordenada para solucionar un problema.
Diagrama de flujo: Esuna manera de hacer
algoritmos de manera gráfica por medio de símbolos que te van guiando a una
respuesta al problema a tratar.
A continuación se les muestra un diagrama de flujo de cómo hacer un diagrama de flujo:
ESTRUCTURA Y FUNCIONAMIENTO DE LA COMPUTADORA
COMPUTADORAS DIGITALES
En términos generales, una computadora es una máquina capaz de procesar, transformar gran cantidad de datos muy rápidamente de acuerdo con un programa de instrucciones. Sin embargo, para entender cómo se efectúa tal procesamiento y por qué es capaz de seguir instrucciones, necesitamos conocer la estructura y el diseño de la computadora digital.
Una computadora digital funciona controlando y efectuando operaciones con señales digitales, esto es, señales que saltan entre un valor bajo y uno alto, sin pasar por valores intermedios.
Una forma de interpretar esta idea consiste en pensar que las computadoras están compuestas por interruptores electrónicos microscópicos y cada uno de éstos sólo puede tener una de dos posiciones: encendido o apagado (que equivale a 1 o 0, respectivamente). Un programa de cómputo manipula estos interruptores para representar datos y efectuar operaciones. Cuando los datos se mueven entre diferentes componentes, la información codificada se transforma en pulsos de energía que serán reinterpretados en el otro extremo.
CLASIFICACIÓN DE LAS COMPUTADORAS
Una supercomputadora es una máquina sumamete rápida (y costosa, alrededors de 100 millones de dólares en 2010), construida especialmente para hacer miles de billones de operaciones aritméticas por segundo. Se utiliza para resolver problemas científicos de cómputo intensivo, es decir, problemas que involucran una inmensa cantidad de cálculos numéricos; por ejemplo, estudios de aerodinámica, predicción, climatología y simulación astronómica.
Un mainframe (anteriormente llamado microcomputadora) es un sistema de cómputo de gran tamaño con numerosos recursos disponibles como son cientos de gigabytes de memoria principal, miles de terabytes de disco duro, cientos de periféricos y facilidades de telecomunicación, y capacidad para permitir máquinas virtuales. Estas características permiten atender miles de usuarios trabajando simultáneamente.
Una minicomputadora es un sistema de computo de tamaño medio, capaz de atender a cientos de usuarios simultáneamente. Se utiliza para satisfacer las necesidades de cómputo no intensivo de un departamento (dentro de una organización). En la actualidad, ya no se hace distinción entre microcomputadoras y mainframes.
Una estación de trabajo (en ingles workstation) es una computadora de pequeñas dimensiones diseñada específicamente para atender las necesidades de un usuario individual; procesamiento de textos, contabilidad, prestaciones multimedia, correo electrónico, acceso a la Web, etc. Suelen clasificarse según su tamaño: de escritorio (desktop), portátil (laptop o notebook), sin teclado (tabletop) o de acceso a Internet (netbook).
Un asistente personal digital (en inglés personal digital asistant o PDA) es una computadora de ,mano que proporciona servicios personales de cuaderno de notas, calculadora, etc. También maneja archivos personales con facilidad: agenda, directorio telefónico, etc. Suelen tener un teclado diminuto o permiten escribir directamente sobre la pantalla. Actualmente los teléfonos inteligentes incorporan todas las facilidades de un asistente personal digital.
Un sistema inmerso, también llamado sistema integrado (conocido en inglés como embedded computing system) es un sistema de cómputo de pequeñas dimensiones (centímetros cuadrados) que se utiliza para controlar dispositivos específicos, y se encuentra integrado a éste, por lo cual es invisible a los ojos del usuario. Dichos sistemas se usan para controlar el despliegue de datos en las pantallas de los aparatos electrónicos, interpretar las teclas oprimidas con un teclado, controlar el movimiento de la cabeza lectora de un disco duro e interpretar los datos de una memoria USB, entre otras.
ESTRUCTURAS DE LAS COMPUTADORAS
Una computadora se conforma de un conjunto de componentes físicos llamado hardware, y un conjunto de programas de datos llamado software.
El hardware incluye los dispositivos y componentes electrónicos, electromecánicos u ópticos, que se encargan de captar, emitir, almacenar o transformar datos, y suele representarse como cuatro bloques independientes con función específica.
A grandes rasgos, la unidad central de procesamiento es el "cerebro" de la computadora; la memoria es un "gran casillero" donde se encuentran las instrucciones y datos; las unidades de estrada y salida permiten que la computadora interactúe con las personas o con otras máquinas.
El software es un concepto abstracto que se refiere a la información manejada por la computadora y a las instrucciones que indican cómo utilizar el hardware. En general, el software se integra de elementos intangibles como son programas, datos y procedimientos que el sistema de cómputo necesita para poder funcionar.
MODELO TEÓRICO DE VON NEWMANN
Exceptuando ciertas computadoras muy especiales, las computadoras digitales se construyen basándose en un esquema típico y con un funcionamiento preciso. Este esquema es conocido como modelo de von Newmann y describe una máquina integrada por cinco partes:
- Unidad de entrada: es la parte que permite que los datos procesados salgan del computador.
- Unidad de salida: es la parte que permite que los datos procesados salgan del computador.
- Unidad de memoria: es un medio de almacenamiento de datos. Ahí se alojan tanto los datos a ser procesados como las instrucciones.
- Unidad de control: es la sección de la computadora que dirige y coordina los procesos a realizar.
- Unidad aritmética y lógica: es la parte de modelo con la capacidad de realizar operaciones matemáticas.
La realización práctica de lo anterior mencionado se hace mediante componentes electrónicos, aplicando la lógica booleana y la aritmética binaria. De tal modo, los aparatos que se utilizan para efectuar las actividades de la unidad de entrada con conocidos como dispositivos de entrada.
Por lo que respecta a la unidad aritmética y lógica, y a la unidad de control, se encuentran reunidas dentro de un mismo dispositivo conocido como procesador o CPU (unidad central de procesamiento).
UNIDAD CENTRAL DE PROCESAMIENTO
El CPU, ( por sus siglas en inglés), es un complejo grupo de circuitos electrónicos que constantemente obtiene instrucciones (de la memoria), indicándole qué operaciones debe de hacer. Cada instrucción involucra la utilización de diferentes partes del procesador.
La función del procesador se reduce a obtener instrucciones de la memoria, interpretarla, efectuar operaciones aritméticas o lógicas, y transferir datos entre la memoria. Estas tareas, se llevan a cabo con gran rapidez y presición dentro de un ciclo que se ejecuta mientras la computadora este encendida.
Un procesador esta integrado por cuatro bloques de circuitos especializados:
- Unidad de control: Es el circuito que decodifica la instrucción recibida y activa o desactiva los demás bloques del procesador para efectuar la instrucción.
- Unidad aritmética-lógica (o ALU por sus siglas en inglés): es el circuito encargado de efectuar operaciones aritméticas , comparaciones y operaciones de lógica booleana.
- Registros: son una colección de circuitos de memoria utilizados para guardar los datos numéricos que requiere la ALU para efectuar operaciones.
- Contador de programa: es un registro especial que usa la unidad de control para ubicar en qué parte de la memoria se encuentra la siguiente instrucción a ser ejecutada.
Una vez que la instrucción ha sido concluida, el procesador busca en la memoria otra instrucción, utilizando como referencia la posición indicada por el contador de programa; tras haberla obtenido, el valor en este registro se ajusta automáticamente para que en el siguiente ciclo detecte correctamente la siguiente instrucción.
Para sincronizar el trabajo de los diferentes bloques de la CPU (cuándo pedir otra instrucción o cuándo realizar una operación aritmética, por ejemplo) se utiliza un reloj electrónico que emite pulsos a intervalos constantes.
El trabajo del reloj se mide en Hertz. Mientras más rápido sea el reloj (es decir, tenga más Hertz), el procesador trabaja más rápidamente y, por tanto, los programas operan con más velocidad.
Una de las características del procesador es el tamaño de sus registros, es decir, cuántos bits caben en el registro. Esta cantidad es conocida como palabra "word".
Una palabra se define como el grupo de bits que la CPU puede procesar a un mismo tiempo. Se llama "longitud de palabra" al número de bits que contiene una palabra.
Mientras más grande sea la longitud de palabra, más poderosa y rápida es la computadora.
Las primeras microcomputadoras (hacia 1980) tenía procesadores con una longitud de palabra de 8 bits, después aparecieron los procesadores de 16 bits y actuelmente se tienen computadoras con CPU de 32 o 64 bits (son más rápidas).
EQUIPO PERIFÉRICO
Los periféricos con aparatos que trabajan junto con la computadora, pero que no forman parte de su arquitectura básica. En general, le permiten comunicación con el exterior o proporcionan servicios adicionales. Algunos ejemplos son el mouse, joystick, las impresoras, el teclado, los discos duros externos, el módem, etc.
De acuerdo con sus funciones principales, el equipo periférico se clasifica en dispositivos de enttrada, dispositivos de salida y dispositivos de memoria.
DISPOSITIVOS DE ENTRADA
Los periféricos de entrada permiten al usuario, u a otro sistema de cómputo, enviar información hacia la computadora.
Existe una amplia gama de equipo para entrada de datos, tales como: teclados, mouse o dispositivos apuntadores, joystick, micrófonos, cámaras digitales, fotográficas o de video, digitalizadores o escáners, lectores de código de barras, entre otros.
DISPOSITIVOS DE SALIDA
Los resultados que se obtienen durante los procesos efectuados por la CPU con enviados al usuario, o a otros sistemas de cómputo, por medio de los periféricos de salida.
Algunos dispositivos de salida con: monitores de video, impresoras, graficadores, sintetizadores de voz, grabadores o quemadores de CD-ROM, y grabadores de disco duro.
DISPOSITIVOS DE MEMORIA
La memoria es la parte de una computadora que permite el almacenamiento de los datos e instrucciones para su uso posterior. Puede estar constituida por elementos electrónicos, mecánicos o magnéticos.
Dependiendo de su utilización, los dispositivos de memoria se clasifican en dos grandes categorías: memoria primaria y memoria secundaria.
Unidades de medición de memoria
Como los datos que almacenan las computadoras son binarios, se han creado unidades especiales para cuantificar la cantidad de datos que puede almacenarse en los dispositivos de memoria.
Los unos y ceros que manejan las computadoras digitales son llamados bits (Binary Digit). Sin embargo, un bit aislado no ofrece mucha información, por lo cual se les agrupa, formándose así el byte, que se integra por ocho bits consecutivos y suele representar un carácter (una letra, un número, un símbolo).
Para cuantificar grandes volúmenes de datos se utilizan múltiplos del byte:
Una memoria de 1 terabyte podría almacenar más de un billón de letras (un millón de millones). Actualmente la memoria primaria de una computadora personal está entre 2 y 8 gigabytes, mientras que el disco duro está entre (100 y 900 gigabytes).
Memoria primaria
La memoria primaria (también llamada principal interna) se utiliza para guardar los datos e instrucciones que la computadora requiere de manera inmediata para poder trabajar. Consiste de componentes electrónicos conectados directamente al procesador. La transferencia de datos requiere de unos cuantos nanosegundos.
Esta memoria es similar a un gran casillero, donde puede guardarse un dato (un byte) en cada celda. Las celdas están numeradas en forma individual, lo que permite acceder directamente a cualquier dato alojado en al memoria. El número asociado a cada casilla es llamado dirección de memoria y es único para cada celda. El tamaño de la memoria se mide según el número de bytes que puede guardar.
Según sus características electrónicas, la memoria primaria se clasifica en RAM y ROM:
Memoria RAM
la memoria RAM (Random Acces Memory, memoria de acceso aleatorio) es utilizada por la CPU para ejecutar programas y almacenar datos temporalmente. Consiste de una colección de circuitos electrónicos que pueden guardar datos y devolverlos; sin embargo, requiere de energía eléctrica para mantener la información, si ésta falta los datos se pierden irremediablemente, motivo por el que se dice que es memoria volátil.
Memoria ROM
La memoria ROM (Ready Only Memory, memoria exclusiva para lectura) viene grabada de fábrica y contiene instrucciones indispensables para el funcionamiento de la máquina, como son las rutinas de autodiagnóstico, el control básico de pantalla y teclado, las rutinas para recuperar el sistema operativo desde el disco duro, principalmente. Este tipo de memoria no permite guardar nuevos datos y su contenido no requiere suministro eléctrico para ser preservado.
Una de las características del procesador es el tamaño de sus registros, es decir, cuántos bits caben en el registro. Esta cantidad es conocida como palabra "word".
Una palabra se define como el grupo de bits que la CPU puede procesar a un mismo tiempo. Se llama "longitud de palabra" al número de bits que contiene una palabra.
Mientras más grande sea la longitud de palabra, más poderosa y rápida es la computadora.
Las primeras microcomputadoras (hacia 1980) tenía procesadores con una longitud de palabra de 8 bits, después aparecieron los procesadores de 16 bits y actuelmente se tienen computadoras con CPU de 32 o 64 bits (son más rápidas).
EQUIPO PERIFÉRICO
Los periféricos con aparatos que trabajan junto con la computadora, pero que no forman parte de su arquitectura básica. En general, le permiten comunicación con el exterior o proporcionan servicios adicionales. Algunos ejemplos son el mouse, joystick, las impresoras, el teclado, los discos duros externos, el módem, etc.
De acuerdo con sus funciones principales, el equipo periférico se clasifica en dispositivos de enttrada, dispositivos de salida y dispositivos de memoria.
DISPOSITIVOS DE ENTRADA
Los periféricos de entrada permiten al usuario, u a otro sistema de cómputo, enviar información hacia la computadora.
Existe una amplia gama de equipo para entrada de datos, tales como: teclados, mouse o dispositivos apuntadores, joystick, micrófonos, cámaras digitales, fotográficas o de video, digitalizadores o escáners, lectores de código de barras, entre otros.
DISPOSITIVOS DE SALIDA
Los resultados que se obtienen durante los procesos efectuados por la CPU con enviados al usuario, o a otros sistemas de cómputo, por medio de los periféricos de salida.
Algunos dispositivos de salida con: monitores de video, impresoras, graficadores, sintetizadores de voz, grabadores o quemadores de CD-ROM, y grabadores de disco duro.
DISPOSITIVOS DE MEMORIA
La memoria es la parte de una computadora que permite el almacenamiento de los datos e instrucciones para su uso posterior. Puede estar constituida por elementos electrónicos, mecánicos o magnéticos.
Dependiendo de su utilización, los dispositivos de memoria se clasifican en dos grandes categorías: memoria primaria y memoria secundaria.
Unidades de medición de memoria
Como los datos que almacenan las computadoras son binarios, se han creado unidades especiales para cuantificar la cantidad de datos que puede almacenarse en los dispositivos de memoria.
Los unos y ceros que manejan las computadoras digitales son llamados bits (Binary Digit). Sin embargo, un bit aislado no ofrece mucha información, por lo cual se les agrupa, formándose así el byte, que se integra por ocho bits consecutivos y suele representar un carácter (una letra, un número, un símbolo).
Para cuantificar grandes volúmenes de datos se utilizan múltiplos del byte:
Una memoria de 1 terabyte podría almacenar más de un billón de letras (un millón de millones). Actualmente la memoria primaria de una computadora personal está entre 2 y 8 gigabytes, mientras que el disco duro está entre (100 y 900 gigabytes).
Memoria primaria
La memoria primaria (también llamada principal interna) se utiliza para guardar los datos e instrucciones que la computadora requiere de manera inmediata para poder trabajar. Consiste de componentes electrónicos conectados directamente al procesador. La transferencia de datos requiere de unos cuantos nanosegundos.
Esta memoria es similar a un gran casillero, donde puede guardarse un dato (un byte) en cada celda. Las celdas están numeradas en forma individual, lo que permite acceder directamente a cualquier dato alojado en al memoria. El número asociado a cada casilla es llamado dirección de memoria y es único para cada celda. El tamaño de la memoria se mide según el número de bytes que puede guardar.
Memoria RAM
la memoria RAM (Random Acces Memory, memoria de acceso aleatorio) es utilizada por la CPU para ejecutar programas y almacenar datos temporalmente. Consiste de una colección de circuitos electrónicos que pueden guardar datos y devolverlos; sin embargo, requiere de energía eléctrica para mantener la información, si ésta falta los datos se pierden irremediablemente, motivo por el que se dice que es memoria volátil.
Memoria ROM
La memoria ROM (Ready Only Memory, memoria exclusiva para lectura) viene grabada de fábrica y contiene instrucciones indispensables para el funcionamiento de la máquina, como son las rutinas de autodiagnóstico, el control básico de pantalla y teclado, las rutinas para recuperar el sistema operativo desde el disco duro, principalmente. Este tipo de memoria no permite guardar nuevos datos y su contenido no requiere suministro eléctrico para ser preservado.
Memoria secundaria
La memoria secundaria o de almacenamiento masivo, consiste en dispositivos externos de la computadora (aunque no pueden estar alojados dentro del mismo gabinete) y se utilizan para almacenar grandes cantidades de datos por tiempos prolongados, como son los programas, utelerías del sistema operativo, archivos de datos, imágenes, grabaciones de audio, etc. Como esta memoria es externa, la comunicación con la CPU se efectúa a través de la unidad de entrada y de la salida. La transferencia de datos entre el procesador y la memoria secundaria puede tardar varios milisegundos.
Existen varias tecnologías para fabricar dispositivos de almacenamiento masivo. Por ejemplo, los discos duros almacenan datos mediante variaciones de un campo magnético, mientras que el CD-ROM los almacena mediante hendiduras microscópicas que son detectadas por la reflexión de un rayo láser. Las memorias USB o flash drives y las tarjetas de memoria son dispositivos de estado sólido, es decir, sin parte móviles.
Los datos en la memoria secundaria se organizan en unidades llamadas archivos. éstos son grupos de datos con alguna característica que los relaciona, y a cada grupo se le asigna un nombre que permite su rápida identificación y hace posible el acceso a la información contenida en ellos.
Algunos dispositivos de memoria secundaria son:
- Discos duros (hard disk, hard drive, o HDU): son discos de aluminio recubiertos con una sustancia ferromagnética (magnetizable), que se encuentran protegidos dentro de un contenedor que asegura estabilidad y atmósfera limpia. Se utilizan para almacenar grandes cantidades de datos que se usan de manera habitual.
- CD-ROM y DVD-ROM: son discos de aluminio recubiertos con una sustancia plástica para su protección. Los datos binarios son representados como hendiduras en la superficie metálica y se utiliza la reflexión de un rayo láser para detectarlas. Una vez grabados, los datos ya no pueden borrarse (por eso se agregó el sufijo ROM). Suele emplearse para distribuir grandes cantidades de datos o paquetes de software.
- Memorias USB y tarjetas de memoria: so memorias de estado sólido cuyos circuitos de memoria no requieren electricidad para mantener los datos. Resultan muy prácticos por su diminuto tamaño y alta velocidad de transmisión de datos.
- Discos flexibles (diskettes): son discos de plástico suave cubiertos con una sustancia magnetizables. Suelen utilizarse en las computadoras personales para trasladar información de una máquina a otra o para respaldarla.
- Cintas magnéticas: son cintas de plástico suave cubiertas con una sustancia magnetizable. Suelen usarse en sistemas de cómputo para respaldar información.
UN PROCESO COMPLETO
A continuación se presenta como actuaría la computadora al hacer una suma de dos números: 6+5.
1. Apretamos el número 6 del teclado.
2. El teclado envía una señal digital (un tren de pulsos) hacia la CPU, indicándoles que se ha pulsado una tecla.
3. En la CPU se determina qué tecla fue oprimida (el 6) y se envía este valor a la memoria.
4. Apretamos el digno + del teclado.
5. El teclado envía nuevamente una señal hacia la CPU, indicándola que se ha pulsado una tecla.
6. En la CPU se determina qué tecla fue oprimida (el +) como se indica una operación, se esperará que se introduzca un nuevo número.
7. Apretamos ahora el número 5.
8. Se envía la señal a la CPU, indicándole que se ha pulsado otra tecla.
9. Se determina qué tecla fue oprimida (el 5) y se envía este valor a la memoria.
10. Para efectuar la operación se trasladan los sumandos desde la memoria hasta los registros internos de la CPU.
11. Se esuma el contenido de los registros y se coloca el resultado en un registro, posteriormente se regresa a la memoria (la operación aritmética se realiza por medio de la ALU).
12. Como deseamos que nos muestre el resultado, la CPU busca nuevamente en la memoria, es decir, extrae el resultado y lo coloca en un registro.
13. Del registro se envía un tren de pulsos hacia el monitor, donde éstos son despegados en forma de número 11.
El esquema teórico que sustenta las computadoras personales es conocido como arquitectura von Newmann; sin embargo existen otros modelos que sirven de base para construir otro tipo de computadoras. A continuación, se mencionan algunos:
1. Arquitectura RISC: utiliza un mínimo de instrucciones básicas que trabajan a gran velocidad. Esta arquitectura es usada por las estaciones de trabajo.
2. Arquitectura de Procesamiento Paralelo: según este modelo se pueden efectuar operaciones matemáticas con grandes grupos de datos a un mismo tiempo. Esta arquitectura es empleada por las supercomputadoras.
3. Arquitectura de Procesamiento Vectorial:según este modelo se pueden efctuar operaciones matemáticas con grandes grupos de datos aun mismo tiempo. Esta arquitectura es empleada por las supercomputadoras.
4. Núcleo múltiple (Multicore): este tipo de arquitectura incorpora varias unidades de procesamiento dentro de un mismo circuito central, dando pauta a un sistema de procesamiento paralelo, de pequeñas dimensiones y alto rendimiento. Las computadoras personales más recientes utilizan este tipo de arquitecturas.
martes, 24 de septiembre de 2013
HISTORIA DE LA COMPUTACIÓN
ORIGEN DE LAS TÉCNICAS Y MECANISMOS DE CÁLCULO
Debido a la necesidad del ser humano de controlar los objetos a su alrededor, tuvo que dar un gran salto intelectual, por ello desarrolló el concepto de número y con éste, pudo relacionar cosas de diferente naturaleza; por ejemplo contar los animales cazados con los dedos de las manos. Conforme la complejidad de las cuentas fue aumentando, las técnicas de conteo fueron mejoradas y, más tarde se inventaron aparatos que facilitaron los cálculos.
Debido a la necesidad del ser humano de controlar los objetos a su alrededor, tuvo que dar un gran salto intelectual, por ello desarrolló el concepto de número y con éste, pudo relacionar cosas de diferente naturaleza; por ejemplo contar los animales cazados con los dedos de las manos. Conforme la complejidad de las cuentas fue aumentando, las técnicas de conteo fueron mejoradas y, más tarde se inventaron aparatos que facilitaron los cálculos.
CÁLCULO MECÁNICO Y DESARROLLOS TEÓRICOS
Ábaco
Fue uno de los primeros instrumentos diseñados para facilitar las operaciones numéricas.
Su funcionamiento se basa en representar los números mediante cuentas móviles y considerar estos movimientos como operaciones de suma o resta.
Los primeros ábacos fueron surcos marcados sobre la tierra, y posteriormente tablillas acanaladas en las que se movían las cuentas, como lo conocemos ahora.
Regla de cálculo
Hacia 1630, el matemático inglés William Oughtred (1574-1660) aprovechó las propiedades de los logaritmos para construir un dispositivo mecánico que simplificara las operaciones aritméticas. Este instrumento consta de dos regletas paralelas que pueden deslizarse una sobre la otra. Cada una tiene marcada una secuencia numérica con escala logarítmica. Las operaciones se efectúan mediante desplazamiento de las regletas, multiplicación (suma de los logaritmos) a la derecha o división (resta de logaritmos) en sentido opuesto.
La regla de cálculo fue una herramienta esencial para científicos e ingenieros hasta finales de 1970
Sumadora de Pascal (Pascalina)
En 1642, el científico y filósofo francés Blaise Pascal (1623-1662) diseñó la primera sumadora mecánica que registra la historia.
Motivado por ayudar a su padre con la contabilidad, Pascal ideó un mecanismo de engranajes en el cual asoció ciertas ruedas dentadas con los dígitos del 0 al 9, utilizando varias para representar unidades, decenas, centenas, etc., según su posición. Pascal diseñó el engranaje de tal modo que, cuando una rueda completaba una vuelta, la siguiente daba un pequeño giro hacia el dígito subsiguiente.
La calculadora de Leibnitz
En 1673, el filósofo y matemático alemán Gottfried W. Leibnitz (1643-1716) desarrolló otra calculadora, que además de sumar y restar, podía multiplicar y dividir gracias a un complicado sistema de ruedas dentadas, cilindro y manivela.
El cilindro tenía 9 dientes, cada uno de los cuales era más largo que el anterior, junto al cilindro se localiza una rueda que embonaba con alguno de los dientes, por lo que al girar el cilindro con la maniavela, la rueda rotaba algunos pasos. Esta ingeniosa maquinaria reducía las multiplicaciones y las divisiones a series de sumas y restas.
Leibnitz también desarrolló la teoría del sistema de numeración binario y efectúo las primeras investigaciones sobre la lógica formal (o lógica matemática), ambos elementos teóricos fundamentales para las computadoras actuales.
Las tarjetas perforadas
Hacia 1802, con una industria textil en pleno desarrollo, el tejedor francés Joseph M. Jacquard (1752-1834) construyó una máquina capaz de producir telas con diseños complejos sin necesidad de intervención humana para el entramado de hilos, agilizando así su fabricación.
Para automatizar este proceso, Jacquard ideó un mecanismo que controlaba el movimiento de las agujas mediante perforaciones en tarjetas. La tarjeta mantenía los dos planos de hilos paralelos de la urdimbre mientras que las perforaciones permitían que ciertas agujas pasasen al plano inferior, moviendo los hilos correspondientes; las agujas restantes mantenían los otros hilos en el nivel superior. Una vez hecho este ajuste, se procedía a tramar el hilo transversal. Cada tarjeta correspondía a un hilo de la trama, por lo cual se requería una gran cantidad de tarjetas encadenadas para representar todo el patrón del tejido.
Proyectos de Babbage
El inventor británico Charles Babbage (1791-1871) es una persona muy representativa en la historia de la computación, ya que previó con un siglo de anticipación las diferentes partes que integran las computadoras actuales (máquinas con memoria, un núcleo de control de procesos, dispositivos para la recepción y emisión de datos, así como la posibilidad de programación).
Babbage comenzó su primer proyecto en 1812, una gran sumadora mecánica que elaboraría tablas de navegación mediante la técnica matemática llamada método de las diferencias, lo que le valió el nombre de máquina diferencial.
Después de construir ésto, Babbage tuvo una idea mucho más ambiciosa, el construir una calculadora universal en 1834, una máquina analítica capaz de realizar cualquier tipo de cálculo siguiendo una secuencia de operaciones previamente establecida por el operador.
Para tal efecto la máquina contaría con un almacén donde guardar los datos numéricos; un núcleo de procesamiento, que fue llamado "molino", para efectuar operaciones aritméticas; y un mecanismo de impresión para reportar resultados. Tanto los datos como el programa de operaciones serían indicados por tarjetas perforadas.
(modelo prueba construido en 1871)
La calculadora atrajo la atención de Ada Augusta Lovelance (1815-1852), quien a partir de 1842 se dedicó a documentar los avances del proyecto, así como a diseñar algunos de los programas que permitirían a la máquina realizar elaboradas operaciones matemáticas. Ada logró pronosticar, que la calculadora no sólo trabajaría con números, sino que también sería utilizada para producir música y gráficas.
Ada Augusta Lovelance es considerada la primera programadora
Paradójicamente, ninguno de los proyectos de Babbage resultaron viables en su tiempo, tanto porque su costo era elevado, además de que no existían los materiales y herramientas necesarias para fabricar las piezas de las máquinas.
Procesamiento de datos
En 1889, Herman Hollerith, empleado de la Oficina de Censo de los Estados Unidos, desarrolló un sistema para agilizar el recuento de información del censo de 1890.
El sistema de Hollerith consideraba una máquina electromecánica de tabulación y un método de codificar información personal como perforaciones en una tarjeta . Una vez que los datos habían sido transferidos a las tarjetas, éstas eran montadas en la tabuladora, la cual detectaba las perforaciones en cada tarjeta y sumaba los datos correspondientes.
Su creación resultó tan exitosa que, para fabricar más, en 1896 fundó su propia empresa: Tabulating Machine Company. Algunos años después esta compañía se transformó en la International Busisness Machines (IBM).
Con su máquina tabuladora, Hollerith introdujo una aplicación nueva: procesamiento de datos, esto es, movilizar, almacenar y contabilizar grandes cantidades de datos, además de hacer cálculos.
FUNDAMENTOS TEÓRICOS DE LA COMPUTACIÓN
Algo que también fue importante para el desarrollo de la computación, fueron los Fundamentos Teóricos por los que funcionan las computadoras, los más importantes son:
Álgebra Booleana
El matemático inglés George Boole (1815-1864) trabajó en desarrollar un formalismo matemático que permitiera representar el razonamiento humano y evaluar su validez. Así, en 1854, Booole demostró que era posible aplicar símbolos algebraicos a las operaciones lógicas y valores de certeza en las proposiciones (afirmaciones).
En el álbegra de Boole, las proposiciones representan como variables algebraicas que pueden ser falsas o verdaderas, pero no ambas al mismo tiempo. Los razonamientos se forman al unir las proposiciones mediante conjunción, disyunción, negación e implicación. Uan correcta manipulación del razonamiento es falsa o verdadera.
El álgebra de Boole reviste de especial importancia ya que las computadoras, su tecnología y programación se fundan en la aplicación de sus reglas.
Teoría de la computación
El matemático inglés Alan Turing (1912-1954) es otra figura especial dentro de la historia de la computación; los resultados de su trabajo sentaron el fundamento teórico que justifica la validez, tanto de los programas como del funcionamiento de las computadoras.
Buscando formalizar la noción de algoritmo, hacia 1936, Turing visualizó un mecanismo universal capaz de resolver una diversidad de problemas matemáticos mediante instrucciones apropiadas. Este dispositivo fue pensado como una gran cantidad de celdas de memoria donde almacenar datos simbólicos, y un mecanismo de control capaz de efectuar cierto número de acciones: revisar o modificar el símbolo contenido de una celda, o moverse hacia una de las celdas contiguas. Las acciones de efectuar por este mecanismo quedan determinadas por una estricta secuencia de instrucciones previamente registrada dentro de la memoria.
Este modelo permite demostrar que algunos problemas matemáticos pueden ser resueltos por computadora, mientras que otros no. Por ejemplo, determinar si un número es primo o no es un problema que puede ser resuelto por computadora (esto es siempre podremos escribir un programa que, tras solicitar un número entero, nos indique su éste fue primo).
Sin embargo, no es posible programar una computadora para que revise un programa cualquiera y determine si éste funcionará bajo cualquier circunstancia (esto implica que no es posible crear un programa universal que revise un archivo directamente y determine si éste es un virus o no).
DESARROLLO DE LA ELECTRÓNICA
El Bulbo
Mientras experimentaba con la lámpara eléctrica, Thomas Edison (1847-1931) observó que las paredes de la bombilla se oscurecían con partículas de carbón desprendidas del filamento.
Intentando capturar estas partículas, en 1883, Edison colocó una pequeña placa cargada eléctricamente (electrodo) cerca del filamento de la bombilla, encontrando que, con esta modificación, se podía establecer una corriente eléctrica.
Tomando como base este fenómeno, en 1906 el ingeniero Lee de Forest agregó un electrodo más, resultando posible regular la intensidad de la corriente eléctrica que pasaba entre los dos primeros electrodos. Este nuevo tipo de bombilla se llegaría a conocer popularmente como bulbo o válvula y con el se inaugura la era de la electrónica.
Las características del bulbo se aprovecharon para desarrollar interruptores electrónicos (componentes que permiten u obstruyen el paso de la corriente eléctrica, pero controlados de manera eléctrica en lugar de mecánica).
Circuitos digitales
En 1937, Claude E. Shannon (1916-2001) demostró que los interruptores eléctricos podían usarse para representar expresiones de álgebra booleana y que, con la aplicación de la aritmética binaria, podían resolver relaciones lógicas o numéricas. Con esta aportación, Shannon sentó las bases teóricas de los circuitos digitales y abrió la puerta al desarrollo de las computadoras modernas.
El trabajo de Shannon estuvo enfocado inicialmente a redes de telefonía, que en aquellos años usaban interruptores electromecánicos llamados relevadores, éstos serían reemplazados por el bulbo y, posteriormente, por transistores
Shannon, también trabajó en el desarrollo de la Teoría de la Información, la cuenta sienta las bases para la comunicación a distancia, la compresión y restauración de datos, el procesamiento de señales, el audio digital, y los estudios para reconocimiento del lenguaje hablado, entre muchos otros.
El transistor
William Sockley (1910-1989), John Barden (1908-1991) y Walter Brattain (1902-1997), investigadores de los laboratorios Bell, en 1947 desarrollaron el transistor, un minúsculo componente electrónico elaborado con semiconductores (materiales que bajo ciertas circunstancias conducen corriente eléctrica y bajo otras se comportan como aislantes) capaz de funcionar como interruptor eléctrico, lo que permitió sustituir a los frágiles y costosos bulbos.
Con los transistores se fabrican circuitos de estado sólido (sin partes móviles o espacio vacío en su interior), lo que redujo de manera considerable el tamaño en los circuitos electrónicos y sus costos, haciendo posibles las calculadoras de bolsillo, los equipos portátiles de radio y televisión, los satélites artificiales y muchas cosas más.
En 1956 Shockley y su equipo fueron reconocidos con el premio Nobel debido a la trascendencia de su trabajo.
El circuito integrado
En 1958, Jack Kilby (1923-2005) y su equipo de trabajo produjeron el primer circuito integrado.
Un circuito integrado o chip es un complejo circuito electrónico cuyos componentes microscópicos se fabrican directamente en una laminilla de silicio de unos cuantos milímetros cuadrados.
El microprocesador
El microprocesador es un circuito integrado capaz de efectuar operaciones aritméticas, operaciones de lógica matemática, y activar o desactivar las diferentes partes de la computadora.
Los procesadores solían construirse con varios circuitos electrónicos separados, sin embargo, resultó posible efectuar una gran variedad de actividades, como modificar señales eléctricas, controlar dispositivos, y transformar o guardar números.
En las décadas que siguieron, el microprocesador se fue incorporando a una gran cantidad de aparatos cotidianos, desde las lavadoras y las máquinas de escribir, hasta los automóviles, los aviones y los satélites, de manera que todos estos aparatos, y muchos más, resultan "primos" de las computadoras.
EL SIGLO XX: LA COMPUTADORA MODERNA
Los primeros cincuenta años
En 1931, el ingeniero Vannevar Bush (1890-1974) construyó el analizador diferencial en el Instituto Tecnológico de Massachussetts.
El analizador estaba compuesto por motores eléctricos, ejes y engranajes, que le permitirán resolver ecuaciones diferenciales de segundo grado (relaciones matemáticas que utilizan los científicos para describir el comportamiento de fenómenos complejos).
De manera paralela, el ingeniero alemán Konrad Zuse (1910-1995) también se dedicó a diseñar y construir calculadoras automáticas. Su primer modelo, el Z1 (1938), sirvió como prototipo a pesar de sus problemas técnicos. Con el apoyo del gobierno alemán construyó la computadora Z3 en 1941, una calculadora electromecánica programable.
El desarrollo de la computadora británica Colossus estuvo a cargo de Alan Turing y se terminó de construir en 1943. Esta máquina se utilizó para descifrar mensajes secretos alemanes.
En 1944, Howard H. Aiken (1900-1973), profesor de la Universidad de Harvard, desarrolló la computadora Mark 1. Esta máquina estuvo compuesta por interruptores electromecánicos, ruedas dentadas, ejes y motores, los cuales permitían leer instrucciones desde una cinta perforada, imprimir resultados en un teletipo y multiplicar dos números de 23 cifras en 6 segundos.
ENIAC: la primera computadora electrónica
En 1942, en plena Segunda Guerra Mundial, el gobierno de Estados Unidos requirió de una máquina calculadora que elaborara tablas balísticas para la artillería.
La Universidad de Pennsylvania se encargó del diseño y construcción de tal calculadora. Como resultado, en febrero de 1946 se hizo la primera demostración pública de la ENIAC (Electronica Numerical Integrator and Calculator).
ENIAC, la primera calculadora totalmente electrónica, fue construida bajo la dirección de Jonh Eckert (1909-1985) y John Mauchly (1907-1980). La computadora, de casi medio millón de dólares y 30 toneladas, se encontraba en una habitación de 9 por 30 metros.
Sus casi 18 000 bulbos y 1 500 interruptores electromecánicos, que consumían unos 150 kilowatts, permitían realizar 5 000 sumas cada segundo y almacenar hasta 20 números de diez cifras. Las válvulas se quemaban continuamente y se programaban reacomodando cables y moviendo interruptores.
ENIAC fue objeto de mejoras y continuó trabajando hasta 1955, habiendo estado en funcionamiento por más de 80 mil horas.
El modelo de von Neumann
Hacia 1945, un cuidado estudio de la ENIAC llevó a la conclusión de que las computadoras deberían funcionar conforme al sistema de numeración binario (es decir, almacenar y procesar datos en forma de números (1 y 0) y que la programación debería efectuarse mediante instrucciones almacenadas en la memoria, en vez de mover interruptores y cables. En cuanto a su organización, las computadoras debían tener un módulo dedicado a las operaciones aritméticas, un módulo de control que operara mediante secuencias de instrucciones, otro módulo de memoria y varios dispositivos para entrada de datos, así como los respectivos para salida de resultados. En la elaboración de este reporte participó el matemático húngaro John von Neumann (1903-1957), que dio nombre a ka propuesta.
La primera computadora que se construyó siguiendo este modelo fue la EDVAC (Electronic Discrete Variable Computer) en 1947.
La primera generación
Las computadoras empezaron a distribuirse comercialmente durante la década de 1950. Estas máquinas se caracterizan por usar bulbos, por lo que se les considera como computadoras de la primera generación.
La primera computadora que apareció en el mercado fue la UNIVAC (UInversal Automatic Computer), producto de la compañía Eckert-Mauchly Computer Corporation (fundada en 1947 por los creadores de la ENIAC). Esta máquina fue vendida a la Oficina del Censo de Estados Unidos en 1951.
UNIVAC se caracterizó por permitir el procesamiento de letras y símbolos además de números, y por utilizar cintas magnéticas para recibirlos y también para almacenarlos.
Tras el éxito de UNIVAC, la compañía IBM lanzó su primera computadora en 1953, el modelo 701. Poco después produjo el IBM 650, máquina que destaco porqué podía guardar grandes cantidades de datos utilizando una memoria de cilindro (tambor) magnético.
La segunda generación
En 1960 apareció la primera computadora basada en transistores, fue la PDP-1 de la compañía Digital Equipment. A partir de este momento, los bulbos fueron reemplazados por tansistoresm permitiendo producir computadoras de menor tamaño y precio. Esta máquinas suelen considerarse como computadoras de la segunda generación.
La tercera generación
En 1964 IBM decidió utilizar circuitos integrados en sus computadoras y presentó su modelo 360. Un año después, la Digital Equipment Corporation lanzó al mercado su computadora PDP-8, cpnsiderada como la primera minicomputadora, de la cual se vendieron más de 50 mil unidades.
La cuarta generación
El desarrollo del microprocesador permitió la fabricación de microcomputadoras o computadoras personales, lo cual consolidó la industria de la computación. Las primeras microcomputadoras fueron construidas en 1976 y se les considera como la cuarta generación.
Una de las historias más interesantes es la de Steve Wozniak y Steve Jobs, los cuales vendieron su carro y su calculadora científica por 1 300 dólares, y trabajaron arduamente en una cochera para construir una microcomputadora sencilla que bastaba conectar a un televisor y a una grabadora casera de cinta.
Tras este logro, Wozniak y Jobs fundaron Apple Computers y, con la experiencia adquirida, fabricaron el Apple II, la primera computadora personal que se vendió con éxito.
Entre 1979 y 1981 muchas empresas se dedicaron a producir microcomputadoras que resultaron muy populares, como fueron Sinclair en Inglaterra o Tandy en Estados Unidos.
La popularidad de estas máquinas se debió a que el usuario no requería ser un especialista en cómputo, el equipo era fácil de manejar y se programaba con el sencillo LENGUAJE BASIC.
La popular IBM PC hizo su aparcición en 1981. IBM logró convencer a al gente de que la computadora personal tenía grande ventajas para la industria, la administración o el hogar. La PC se volvió un modelo a seguir en sólo 18 meses.
Apple dió un paso muy importante en 1984, cuando lanzó el modelo Macintosh, demostrando que la interacción con la computadora podía ser amigable. Muchos de los conceptos comercializados por la Macintosh, como la interfaz gráfica y el mouse, serín más tarde características estándar en la industria de la computación.
A pesar de la gran variedad de microcomputadoras, para finales de la década de 1980 sólo quedaban tres tipos de computadoras personales: la IBM PC, la Apple Macintosh y la Commodore Amiga.
IBM PC
MACINTOSH
COMMODORE AMIGA
Las computadoras que se fabrican en la actualidad aun pertenecen a la cuarta generación, ya que aunque los componentes hayan disminuido de tamaño, la arquitectura básica de diseño no ha cambiado.
La tendencia tecnológica del siglo XXI ha sido hacia el cómputo móvil y la conectividad ininterrumpida a Internet, así como la integración de periféricos como las cámaras y micrófonos. En este sentido, se han logrado grandes avances en el desarrollo de computadoras portátiles y en los teléfonos inteligentes.
DESARROLLO DE INTERNET
Una de las columnas vertebrales de la tecnología actual es el Internet.
Su origen data de principios de la década de 1960, cuando surgió el interés de conectar las computadoras entre sí y, de ese modo, formar una red para compartir la información.
Esta idea fue atendida especialmente por el gobierno estadounidense, debido a la preocupación por mantener las computadoras militares en caso de un ataque nuclear; a principios de 1970 ya tenía funcionando las primeras redes que enlazaban diferentes partes del país.
Las incompatibilidades técnicas entre equipos de diferentes fabricantes fue uno de los principales retos a superar para lograr el intercambio de datos entre diversas computadoras. Ante este problema, los investigadores Vinton G. Cerf y Robert E. Khan diseñaron un par de modelos de comunicación, conocidos genericamente como el Protocolo para Control de Transmisión y el Protocolo de Internet (TCP/IP, por sus siglas en inglés), lo que allanó el camino para poder compartir información entre (inter) diferentes redes (nets).
Por dos décadas el acceso a las redes estuvo prácticamente limitado a las grandes computadoras institucionales; sin embargo, poco después de su aparición las computadoras personales fueron incorporándose a las grandes redes, lo que provocó su crecimiento desmedido. La tecnología para la interconexión de redes (internet) de Cerf y Khan, permitio que, en breve lapso una multitud de redes de todo tamaño y tipo pudieran enlazarse, en una masiva "red de redes" que eventualmente se conocería simplemente como Internet, una infraestructura que actualmente conecta exitosamente a millones de usuarios alrededor del mundo.
En 1980, el ingeniero británico Tim Berners-Lee, científico del Laboratorio de Partículas CERN (de la Organización Europea de Investigación Nuclear), empezó a pensar en un mecanismo que facilite el intercambio de información entre sus colegas, y visualizó un sistema basado en archivos de hipertexto distribuidos en diferentes computadoras de una o varias redes. A fines de esa misma década, el concepto había madurado lo suficiente y Berners-Lee propuso arpovechar la infraestructura de Internet para integrar la Wordl Wide Web ("la gran telaraña mundial"). El CERN tuvo el primer sitio web entre 1990 y 1991, y en abril de 1993 declaró que la World Wide Web estaría abierta para todo el mundo.
La tecnología dio pauta para que Internet se transformara en una supercarretera de la información para todas las personas en el mundo.
Suscribirse a:
Entradas (Atom)