jueves, 15 de julio de 2010

Unidad central de procesamiento


La unidad central de procesamiento o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores. La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960 . La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.

Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.

HISTORIA:

Casi todos los CPU tratan con estados discretos, y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo.[1] Generalmente, cuando un tubo ha fallado, el CPU tendría que ser diagnosticado para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidas pero menos confiables que las computadoras electromecánicas, (basadas en relés). Las computadoras de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallas, mientras que las computadoras de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente . Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estos tempranos CPU síncronos corrían en frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos, (ver más abajo para una exposición sobre la frecuencia de reloj). Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.

MICROPROCESADORES

Desde la introducción del primer microprocesador, el Intel 4004, en 1970, y del primer microprocesador ampliamente usado, el Intel 8080, en 1974, esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas arquitecturas de computador, y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal, el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores. A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos, como la electromigración, y el subumbral de pérdida. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la computadora cuántica, así como ampliar el uso de paralelismo, y otros métodos que extienden la utilidad del modelo clásico de von Neumann. mario pelado.

Diagrama mostrando como es decodificada una instrucción del MIPS32. (MIPS Technologies 2005)

OPERACIÓN DEL CPU:

La operación fundamental de la mayoría de los CPU, es ejecutar una secuencia de instrucciones almacenadas llamadas "programa". El programa es representado por una serie de números que se mantentienen en una cierta clase de memoria de computador. Hay cuatro pasos que casi todos los CPU de arquitectura de von Neumann usan en su operación: fetch, decode, execute, y writeback, (leer, decodificar, ejecutar, y escribir). La instrucción que el CPU lee desde la memoria es usada para determinar qué deberá hacer el CPU. En el paso de decodificación, la instrucción es dividida en partes que tienen significado para otras unidades del CPU. La manera en que el valor de la instrucción numérica es interpretado está definida por la arquitectura del conjunto de instrucciones (el ISA) del CPU.[3] A menudo, un grupo de números en la instrucción, llamados opcode, indica qué operación realizar. Las partes restantes del número usualmente proporcionan información requerida para esa instrucción, como por ejemplo, operandos para una operación de adición. Tales operandos se pueden dar como un valor constante (llamado valor inmediato), o como un lugar para localizar un valor, que según lo determinado por algún modo de dirección, puede ser un registro o una dirección de memoria. En diseños más viejos las unidades del CPU responsables de decodificar la instrucción eran dispositivos de hardware fijos. Sin embargo, en CPUs e ISAs más abstractos y complicados, es frecuentemente usado un microprograma para ayudar a traducir instrucciones en varias señales de configuración para el CPU. Este microprograma es a veces reescribible de tal manera que puede ser modificado para cambiar la manera en que el CPU decodifica instrucciones incluso después de que haya sido fabricado.


DISEÑOS E IMPLEMENTACION.:



FRECUENCIA DE RELOJ:

La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de lógica secuencial, son de naturaleza síncrona.[8] Es decir, están diseñados y operan en función de una señal de sincronización. Esta señal, conocida como señal de reloj, usualmente toma la forma de una onda cuadrada periódica. Calculando el tiempo máximo en que las señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU, los diseñadores pueden seleccionar un período apropiado para la señal del reloj.

Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse, o propagarse, en el peor de los casos. Al fijar el período del reloj a un valor bastante mayor sobre el retardo de la propagación del peor caso, es posible diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes" de la subida y bajada de la señal del reloj. Esto tiene la ventaja de simplificar el CPU significativamente, tanto en una perspectiva de diseño, como en una perspectiva de cantidad de componentes. Sin embargo, esto también tiene la desventaja que todo el CPU debe esperar por sus elementos más lentos, aun cuando algunas unidades de la misma son mucho más rápidas. Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU (ver abajo). Un método de tratar la conmutación de componentes innecesarios se llama el clock gating, que implica apagar la señal del reloj a los componentes innecesarios, efectivamente desactivándolos. Sin embargo, esto es frecuentemente considerado como difícil de implementar y por lo tanto no ve uso común afuera de diseños de muy baja potencia.[9] Otro método de tratar algunos de los problemas de una señal global de reloj es la completa remoción de la misma. Mientras que quitar la señal global del reloj hace, de muchas maneras, considerablemente más complejo el proceso del diseño, en comparación con diseños síncronos similares, los diseños asincrónicos (o sin reloj) tienen marcadas ventajas en el consumo de energía y la disipación de calor. Aunque algo infrecuente, CPUs completas se han construido sin utilizar una señal global de reloj. Dos notables ejemplos de esto son el AMULET, que implementa la arquitectura del ARM, y el MiniMIPS, compatible con el MIPS R3000. En lugar de remover totalmente la señal del reloj, algunos diseños de CPU permiten a ciertas unidades del dispositivo ser asincrónicas, como por ejemplo, usar ALUs asincrónicas en conjunción con pipelining superescalar para alcanzar algunas ganancias en el desempeño aritmético. Mientras que no está completamente claro si los diseños totalmente asincrónicos pueden desempeñarse a un nivel comparable o mejor que sus contrapartes síncronas, es evidente que por lo menos sobresalen en las más simples operaciones matemáticas. Esto, combinado con sus excelentes características de consumo de energía y disipación de calor, los hace muy adecuados para sistemas embebidos .

Microprocesador MOS 6502 en un dual in-line package (encapasulado en doble línea), un diseño extremadamente popular de 8 bits.

RANGOS ENTEROS:

La manera en que un CPU representa los números es una opción de diseño que afecta las más básicas formas en que el dispositivo funciona. Algunas de las primeras calculadoras digitales usaron, para representar números internamente, un modelo eléctrico del sistema de numeración decimal común (base diez). Algunas otras computadoras han usado sistemas de numeración más exóticos como el ternario (base tres). Casi todos los CPU modernos representan los números en forma binaria, en donde cada dígito es representado por una cierta cantidad física de dos valores, como un voltaje "alto" o "bajo".[6] Con la representación numérica están relacionados el tamaño y la precisión de los números que un CPU puede representar. En el caso de un CPU binario, un bit se refiere a una posición significativa en los números con que trabaja un CPU. El número de bits (o de posiciones numéricas, o dígitos) que un CPU usa para representar los números, a menudo se llama "tamaño de la palabra", "ancho de bits", "ancho de ruta de datos", o "precisión del número entero" cuando se ocupa estrictamente de números enteros (en oposición a números de coma flotante). Este número difiere entre las arquitecturas, y a menudo dentro de diferentes unidades del mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de números que pueden ser representados por ocho dígitos binarios, cada dígito teniendo dos valores posibles, y en combinación los 8 bits teniendo 28 ó 256 números discretos. En efecto, el tamaño del número entero fija un límite de hardware en el rango de números enteros que el software corre y que el CPU puede usar directamente.


PARALELISMO:

La descripción de la operación básica de un CPU ofrecida en la sección anterior describe la forma más simple que puede tomar un CPU. Este tipo de CPU, usualmente referido como subescalar, opera sobre y ejecuta una sola instrucción con una o dos piezas de datos a la vez.

Este proceso da lugar a una ineficacia inherente en CPUs subescalares. Puesto que solamente una instrucción es ejecutada a la vez, todo el CPU debe esperar que esa instrucción se complete antes de proceder a la siguiente instrucción. Como resultado, el CPU subescalar queda "paralizado" en instrucciones que toman más de un ciclo de reloj para completar su ejecución. Incluso la adición de una segunda unidad de ejecución (ver abajo) no mejora mucho el desempeño. En lugar de un camino quedando congelado, ahora dos caminos se paralizan y aumenta el número de transistores no usados. Este diseño, en donde los recursos de ejecución del CPU pueden operar con solamente una instrucción a la vez, solo puede, posiblemente, alcanzar el desempeño escalar (una instrucción por ciclo de reloj). Sin embargo, el desempeño casi siempre es subescalar (menos de una instrucción por ciclo).

Las tentativas de alcanzar un desempeño escalar y mejor, han resultado en una variedad de metodologías de diseño que hacen comportarse al CPU menos linealmente y más en paralelo. Cuando se refiere al paralelismo en los CPU, generalmente son usados dos términos para clasificar estas técnicas de diseño.

  • El paralelismo a nivel de instrucción, en inglés Instruction Level Parallelism (ILP), busca aumentar la tasa en la cual las instrucciones son ejecutadas dentro de un CPU, es decir, aumentar la utilización de los recursos de ejecución en la pastilla
  • El paralelismo a nivel de hilo de ejecución, en inglés thread level parallelism (TLP), que se propone incrementar el número de hilos (efectivamente programas individuales) que un CPU pueda ejecutar simultáneamente.

Cada metodología se diferencia tanto en las maneras en las que están implementadas, como en la efectividad relativa que producen en el aumento del desempeño del CPU para una aplicación


PERIFERICOS DE UNA COMPUTADORA

PERIFÉRICOS DE ENTRADA:
TECLADO

El teclado de computadora es un periférico que cumple una función de entrada de información y órdenes. Existen teclados "virtuales", menos difundidos y basados en pantallas táctiles o tecnología láser, y teclados "físicos", basados en teclas generalmente de plástico dispuestas de diferentes formas según marca, modelo o idioma.
Los antepasados del teclado de PC son las máquinas de escribir tradicionales, los teletipos y las máquinas eléctricas, que incluso en algunos casos eran utilizadas en las primeras computadoras para almacenar información en tarjetas perforadas y grabadoras de cinta de papel Los teclados físicos poseen teclas alfabéticas ordenadas de un modo tal que permitan una fácil memorización de la ubicación de las mismas para lograr una escritura más llevadera. Estas teclas alfabéticas tienen grabadas letras en mayúscula y en algunos casos poseen algún símbolo adicional, como por ejemplo el "€" en la tecla "E" para representar la moneda del mercado común europeo. En cambio los números, ubicados encima de las teclas alfabéticas, poseen a veces más de un símbolo, como en el caso de la arroba y las comillas. En un teclado latino español de 105 teclas utilizado normalmente en nuestros países hipanoparlantes, la arroba se ingresa presionando la tecla Alt Gr + 2, mientras que las comillas se obtienen presionando la tecla Shift + 2. El sistema operativo de una PC debe ser correctamente configurado para que cada símbolo y combinación de teclas represente un caracter o una orden coherente, esto se realiza mediante el Panel de Control del escritorio.
MOUSE

Mouse significa ratón en inglés, este dispositivo utilizado en todas las PC fue comenzado a ser llamado mouse en la Universidad de Standford, dado que el cable y su cuerpo (forma y tamaño) sugerían la forma de un roedor.

El mouse es un dispositivo de hardware periférico que permite al ser humano controlar un puntero mediante el cual se realizan diferentes acciones. Este dispositivo de entrada de datos está adaptado al uso manual, presentando generalmente una forma lo suficientemente ergonómica con el objetivo de brindar sencillés, comodidad, y funcionalidad El movimiento de la flecha o puntero en la pantalla del monitor es producido mediante un sistema relativamente complejo que comienza con el desplazamiento del mouse sobre una superficie horizontal en dos dimensiones.

Las pantallas táctiles y otras tecnologías que intentaron reemplazar el mouse aún no han logrado desplazarlo en absoluto, por lo cual se espera que sea útil durante muchos años más. Se cree que el reconocimiento de voz o la posibilidad de mover la flecha mediante los ojos serían pasos significativos en pos de encontrar formas más prácticas a la hora de controlar programas de computación. En cuanto a sus botones, en general posee al menos 2, más una rueda que cumple las funciones de scroll (desplazamiento vertical u horizontal del contenido mostrado en una ventana). En general el botón izquierdo sirve para seleccionar elementos y ejecutarlos, marcar texto, abrir menús, y el botón derecho cumple funciones extras como por ejemplo abrir menús especiales sobre un administrador de archivos.

Originalmente el sistema de posicionamiento de los ratones funcionaba en base a un dispositivo mecánico, en base a una bola y engranajes, pero en la actualidad se han difundido enormemente los ratones ópticos, más precisos; e incluso mouses inalámbricos.

ESCANER


El escáner (del inglés scanner, el que explora o registra) es un aparato o dispositivo utilizado en Medicina, Electrónica e Informática, que explora el cuerpo humano, un espacio, imagenes o documentos.

Su plural es escáneres (RAE).

Se ha creado el verbo escanear, que significa 'pasar [algo] por un escáner', para obtener o "leer" imágenes (escáner de computador o de barras) o encontrar un objeto o señal (escáner de un aeropuerto, o de radio).

Escáner significa:

  • En Electrónica, "dispositivo óptico que reconoce caracteres o imágenes", y para referirse a este se emplea en ocasiones la expresión lector óptico (de caracteres).
  • En Medicina, "aparato que produce una representación visual de secciones del cuerpo", "prueba realizada con este aparato" y "resultado de esta prueba". El aparato médico se llama también escanógrafo.
    • Aparato que, por medio de ultrasonidos, resonancia magnética, radiaciones ionizantes o rayos X, produce una imagen de órganos o partes internas del cuerpo.
    • Prueba o exploración realizada con un escáner (‖ aparato que produce una imagen interna del cuerpo).

El escáner utilizado en Informática, clasificado como un dispositivo o periférico de entrada, es un aparato electrónico, que explora o permite "escanear" o "digitalizar" imágenes o documentos, y lo traduce en señales eléctricas para su procesamiento y, salida o almacenamiento.



AUDIO Y SONIDO

(sistema de audio). En una computadora, el sistema de sonido es el sistema conformado por la placa de sonido, los controladores de audio y los dispositivos de sonido (parlantes, micrófonos, etc.). Son los componentes básicos para que una computadora cuente con posibilidad de grabar, transferir o reproducir audio digital.

Al sistema de sonido se le pueden incorporar las aplicaciones de audio (reproductores, grabadores, editores, etc.), dispositivos periféricos, etc.
CAMARA WEB

Una Webcam es una cámara de vídeo barata y sencilla que se coloca encima o al lado del monitor del ordenador.

Las webcams están diseñadas para enviar vídeos en vivo y grabados así como capturas de imagen a través de la red a uno o más usuarios. Una webcam también puede ser una cámara digital colocada en alguna parte del mundo, enviando vídeo que se ve a través de un sitio web, de modo que los usuarios puedan ver ciertos acontecimientos en vivo.

El sufijo cam se puede aplicar a muchas palabras para describir cámaras fotográficas especializadas, como la nannycam que se utiliza dentro de un hogar para supervisar las actividades de una niñera.


PERIFERICOS DE SALIDA:


MONITOR

El monitor es un periférico de salida en el que se hace visible al usuario la información que se encuentra dentro de la computadora. Los más comunes suelen ser los que tienen tubos de rayos catódicos (CRT), aunque en la actualidad está aumentando lentamente la utilización de los que se basan en las tecnologías LCD y plasma.

Si bien por lo general solemos tener en cuenta el tamaño del monitor en el momento de elegirlo, existen diversas características que hay que considerar para determinar su calidad.

Por supuesto que está el tamaño, que se mide en pulgadas (es decir la longitud de la diagonal) y que generalmente suelen variar entre 14 y 21 pulgadas. Pero esa longitud no suele ser el área visible ya que en los que poseen tubos, su longitud es realmente la zona útil del monitor.

Una de las características de la que dependerá la nitidez de la imagen es el tamaño del punto (dot pitch): define la distancia entre dos puntos del mismo color. Cuanto menor sea el tamaño, más precisa es la imagen y además es fijo, a diferencia del píxel, con el que se lo suele confundir, que es variable y que de su cantidad dependerá la resolución de la pantalla.

Con respecto a la resolución, que es el número de puntos que puede representar el monitor por pantalla, en horizontal por vertical, cuanto mayor sea la resolución de un monitor, mejor será la calidad de la imagen. Por ejemplo, un monitor de 14”, tiene una resolución máxima de 1024×768 puntos y resoluciones inferiores, como 640×480 u 800×600.

Otra de las particulares es la frecuencia de refresco, que se relaciona con la estabilidad de la imagen: cuanto mayor es la frecuencia, mejor es la calidad porque tiene menos parpadeos. Un valor óptimo, para modos de 1.024 x 768 puntos, es de 90 Hz (hertzios) y el valor mínimo de 70 Hz. La forma en que se conectan con la computadora es a través de una tarjeta gráfica o tarjeta de video, si bien se presentan al usuario a través del monitor.

IMPRESORA

Una impresora es un dispositivo de hardware que imprime texto o gráficos en papel. Hay varias tipos de impresoras, incluyendo las LCD, LED, térmica, de inyección de tinta, y de matriz de puntos, pero las más recomendadas son las impresoras laser.

Algunos sitios web ofrecen una versión impresora-amistosa, ésto significa que ofrecen una versión de la página para imprimir que contiene la misma información pero que no tiene todos los gráficos o anuncios (con lo que ahorras un poco de tinta).

Si quieres imprimir un sitio web, utiliza siempre la versión impresora-amistosa, si está disponible. Además, si la página que vas a imprimir es relativamente corta, selecciona imprimir página 1 de 1 en el menú de la impresora para no desperdiciar una segunda hoja del papel solamente imprimiendo la barra inferior de navegación. Siempre puedes imprimir la página 2 de 2 más adelante, en caso de que no se haya impreso todo lo que querías.

A veces se utiliza la palabra impresora para describir cualquier máquina con papel, como fotocopiadoras o fax.

PLOTTER

Un plotter es una maquina impresora que se utiliza junto con la computadora e imprime en forma lineal. Se utilizan en diversos campos: ciencias, ingeniería, diseño, arquitectura, etc. Muchos son monocromáticos o de 4 colores (CMYK), pero los hay de ocho y hasta de doce colores.

Actualmente son frecuentes los de inyección, que tienen mayor facilidad para realizar dibujos no lineales y policromos, son silenciosos, más rápidos y más precisos.

Actualmente los trazadores gráficos suelen ser compartidos por varios ordenadores y se controlan mediante una interfaz Ethernet o similar. Además pueden tener una entrada serie, RS232, más que nada por compatibilidad con modelos antiguos.

Para aplicaciones especiales, también existen con interfaz GPIB, Centronics, etc.

El dibujo se realiza mediante algún lenguaje descriptor de gráficos, como HPGL (HP), Postscript (Adobe), etc. También los hay que aceptan directamente cierto número de formatos gráficos, como JPEG, DXF, etc., de modo que simplemente hay que enviar el fichero al plóter.

Tradicionalmente, las impresoras se orientan a la impresión de textos. Esto las hace bastante fáciles de controlar, siendo suficiente el simple envío del texto a la impresora para generar una página impresa. No ocurre lo mismo con los dibujos de los plóteres, para los que se han definidos una serie de lenguaje de descripción de página que incluyen información detallada del estilo de "dibujar una línea desde el punta A al punto B". Los dos lenguajes de control de plóteres basados en ASCII más comunes son HPGL2 de Hewlett Packard y DPML de Houston Instruments, con órdenes como "PA 3000, 2000; PD"

Los programadores de FORTRAN o BASIC normalmente no programaban estas instrucciones directamente, sino que usaban paquetes de software tales como la librería Calcomp, o paquetes gráficos independientes de dispositivo como las librerías AGL de Hewlett-Packard o las extensiones BASIC y paquetes de alto nivel tales como DIsSPLA. Con ellas se establecían factores de escala del mundo real al dispositivo, y se traducían las instrucciones al bajo nivel de los comandos del dispositivo. En el BASIC del HP 9830 era más sencillo escribir un programa de ploteo que hoy en bobos C#.NET. Por ejemplo, para dibujar X*X, el programa sería:

CIBERNAUTAS


Cibernauta es aquella persona que navega por internet. En principio es un término aplicable a cualquier persona que utiliza un navegador web y visita sitios web; pero suele utilizarse especialmente para aquellas personas que son expertos navegantes de la WWW, incluso sin saber demasiado sobre computación.

Sinónimos posibles: ciberusuario, cybernauta, internauta, cybernaute en inglés.
Sociabilidad de los cibernautas

La idea social más generalizada, es que los cibernautas son personas poco sociables e introvertidas. Pero un estudio realizado por expertos de la Universidad de Cataluña, concluyó que las personas que utilizan internet son más sociables, se interesan más en la política y tienen relaciones de amistad y familiares más intensas.

El estudio abarcó 6 años, más de 15 mil entrevistas personales y más 40 mil entrevistas por internet. La conclusión fue: "Internet aumenta la sociabilidad".

POSTURA INDICADA PARA EL CIBERNAUTA:


INFORMÁTICA


INTRODUCCIÓN:

Ordenador o Computadora, dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información.

Microsoft Windows.

La incorporación del ordenador o computadora en las oficinas, constituyó una revolución en los sistemas ofimáticos, ya que las máquinas ofrecían el medio para realizar comunicacionese intercambio de información instantáneos entre compañeros de trabajo, recursosy equipos. Los accesorios, como el mouse(ratón), facilitan el desplazamiento dentro de las aplicaciones ( programas de computadora). Los rápidos avances tecnológicoshan mejorado los sistemas informáticos y, al mismo tiempo, han disminuido los precios, haciendo que los equipos sean más asequibles.

Informática o Computación, conjunto de conocimientos c

ientíficos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica.

periférico o dispositivo: complemento de un ordenador o computadora, como un ratón (mouse) o un módem. El accesorio ofrece una funcionalidad que no

está disponible en la máquina original, pero que no es necesaria para el funcionamiento de la misma.

Microprocesador, circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impre

soras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de microprocesadores en todo el mundo.

Hardware de almacenamiento
El hardware de almacenamiento sirve para almacenar permanentemente información y programas que el ordenador deba recuperar en algún momento. Los dos tipos principales de dispositivos de almacenamiento son las unidades de disco y la memoria. Existen varios tipos de discos: duros, flexibles, magneto-ópticos y compactos. Las unidades de disco duroalmacenan información en partículas magnéticas integradas en un disco. Las unidades de disco duro, que suelen ser una parte permanente de la computadora, pueden almacenar grandes cantidades de información y recuperarla muy rápidamente. Las unidades de disco flexible también almacenan información en partículas magnéticas integradas en discos intercambiables, que de hecho pueden ser flexibles o rígidos. Los discos flexibles almacenan menos información que un disco duro, y la recuperación de la misma es muchísimo más lenta. Las unidades de disco magneto-óptico almacenan la información en discos intercambiables sensibles a la luz láser y a los campos magnéticos. Pueden almacenar tanta información como un disco duro, pero la velocidad de recuperación de la misma es algo menor. Las unidades de disco compacto, o CD-ROM, almacenan información en las cavidades grabadas en la superficie de un disco de material reflectante. La información almacenada en un CD-ROM no puede borrarse ni sustituirse por otra información. Los CD-ROM pueden almacenar aproximadamente la misma información que un disco duro, pero la velocidad de recuperación de información es menor.

La memoria está formada por chips que almacenan información que la CPU necesita recuperar rápidamente. La memoria de acceso aleatorio (RAM, siglas en inglés) se emplea para almacenar la información e instrucciones que hacen funcionar los programas de la computadora. Generalmente, los programas se transfieren desde una unidad de disco a la RAM. La RAM también se conoce como memoria volátil, porque la información contenida en los chips de memoria se pierde cuando se desconecta el ordenador. La memoria de lectura exclusiva (ROM, siglas en inglés) contiene información y software cruciales que deben estar permanentemente disponibles para el funcionamiento de la computadora, por ejemplo el sistema operativo, que dirige las acciones de la máquina desde el arranque hasta la desconexión. La ROM se denomina memoria no volátil porque los chips de memoria ROM no pierden su información cuando se desconecta el ordenador.

Algunos dispositivos se utilizan para varios fines diferentes. Por ejemplo, los discos flexibles también pueden emplearse como dispositivos de entrada si contienen información que el usuario informático desea utilizar y procesar. También pueden utilizarse como dispositivos de salida si el usuario quiere almacenar en ellos los resultados de su computadora.

El disco duro de una computadora se utiliza para guardar datos en soporte magnético.

Para funcionar, el hardware necesita unas conexiones materiales que permitan a los componentes comunicarse entre sí e interaccionar. Un bus constituye un sistema común interconectado, compuesto por un grupo de cables o circuitos que coordina y transporta información entre las partes internas de la computadora. El bus de una computadora consta de dos canales: uno que la CPU emplea para localizar datos, llamado bus de direcciones, y otro que se utiliza para enviar datos a una dirección determinada, llamado bus de datos. Un bus se caracteriza por dos propiedades: la cantidad de información que puede manipular simultáneamente (la llamada 'anchura de bus') y la rapidez con que puede transferir dichos datos.

Una conexión en serie es un cable o grupo de cables utilizado para transferir información entre la CPU y un dispositivo externo como un mouse, un teclado, un módem, un digitalizador y algunos tipos de impresora. Este tipo de conexión sólo transfiere un dato de cada vez, por lo que resulta lento. La ventaja de una conexión en serie es que resulta eficaz a distancias largas.

Una conexión en paralelo utiliza varios grupos de cables para transferir simultáneamente más de un bloque de información. La mayoría de los digitalizadores e impresoras emplean este tipo de conexión. Las conexiones en paralelo son mucho más rápidas que las conexiones en serie, pero están limitadas a distancias menores de 3 m entre la CPU y el dispositivo externo.

1.Unidad central de proceso o UCP
Conocida por sus siglas en inglés, CPU, circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).

2. Funcionamiento de la cpu
Cuando se ejecuta un programa, el registrode la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada.

Software, programas de computadoras. Son las instrucciones responsables de que el hardware (la máquina) realice su tarea. Como conceptogeneral, el software puede dividirse en varias categorías basadas en el tipo de trabajo realizado. Las dos categorías primarias de software son los sistemas operativos (software del sistema), que controlan los trabajos del ordenador o computadora, y el software de aplicación, que dirige las distintas tareas para las que se utilizan las computadoras. Por lo tanto, el software del sistema procesa tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de los archivos del disco y la administraciónde la pantalla, mientras que el software de aplicación lleva a cabo tareas de tratamiento de textos, gestión de bases de datosy similares. Constituyen dos categorías separadas el software de red, que permite comunicarse a grupos de usuarios, y el software de lenguaje utilizado para escribir programas (véase Lenguaje de programación).

Además de estas categorías basadas en tareas, varios tipos de software se describen basándose en su método de distribución. Entre estos se encuentran los así llamados programas enlatados, el software desarrollado por compañías y vendido principalmente por distribuidores, el freeware y software de dominiopúblico, que se ofrece sin costoalguno, el shareware, que es similar al freeware, pero suele conllevar una pequeña tasa a pagar por los usuarios que lo utilicen profesionalmente y, por último, el infame vapourware, que es software que no llega a presentarse o que aparece mucho después de lo prometido.

MINITURIZACIÓN:

La invención del microchip permitió reducir el tamaño de los ordenadores, primero lo suficiente para colocarlos encima de la mesa, y más tarde para llevarlos en la mano. Los dispositivos de mano más completos disponen de varios megabytes (millones de caracteres) de espacio para almacenar archivos, enorme capacidad de cálculo, con utilidades de hoja de cálculo y gráficos, y los medios necesarios para enviar y recibir correo electrónico y recorrer Internet. En la fotografía se utiliza un pequeño ordenador para reprogramar el sistema electrónico de control de una moderna motocicleta.

En los años noventa empezaron a popularizarse los computadores portátiles, desde máquinas de 5kg o más de peso, hasta las de menos de 2kg de hoy, también con la creciente capacidad de disco duro de los PC de sobremesa, pero con escasos progresos en la "longevidad" de la batería (siempre en torno a los 2 o 3 horas).

Los computadores "de mano"

Pero los PC portátiles han seguido achicándose y hoy se habla de los "handhelds" o computadores "de mano". Son portátiles que, si bien no caben en el bolsillo (salvo honrosas excepciones con el europeo PSION, que está a medio camino entre PC portátil y PDA -ver siguiente foto, izquierda-), son mucho más livianos y tienen la mitad del ancho de un portátil normal pero deben sincronizarse con un PC de escritorio para transferir y copiar datos por cuanto no tienen disketera propia.

Miniaturización de "periféricos"

webcam

Pero la miniaturización de los sistemas no se limita a los computadores o sus similares "menores". Los periféricos (aparatos destinados a la entrada o salida de datos) también se achican y conocemos hoy las cámaras digitales de bolsillo (foto izquierda) así como las "webcams" o microcámaras de videoconferencia por web (foto derecha).

webcam

Obviamente si estas máquinas se achican, también pueden integrarse a otros aparatos, y ya han sido vendidos en Japón millones de teléfonos celulares con cámara fotográfica integrada (capaces de enviar esas fotos a cualquier destinatario, vía Internet).

QuickLink scanner

También se ha miniaturizado el escáner. Obviamente, tan pequeño, no puede escanear una página de texto ni una foto: escanea solamente texto, línea por línea.








miércoles, 7 de julio de 2010

INTERNET

Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas que la componen funcionen como una red lógica única, de alcance mundial.
Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la
World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión. Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.
El
género de la palabra Internet es ambiguo, según el Diccionario de la Real Academia Española.




HISTORIA DE LA INTERNET





En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.
1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (
Internet Society, A Brief History of the Internet




INTERNET Y SOCIEDAD




Internet tiene un impacto profundo en el trabajo, el ocio y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.
Comparado a las
enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.




INTERNET Y SU EVOLUCION

Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy concreto: búsquedas de información, generalmente.
Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red, debido al inmenso abanico de posibilidades que brinda la red. Hoy en día, la sensación que produce Internet es un ruido, una serie de
interferencias, una explosión o cúmulo de ideas distintas, de personas diferentes, de pensamientos distintos de tantas y tantas posibilidades que, en ocasiones, puede resultar excesivo.
El crecimiento o más bien la incorporación de tantas personas a la red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros.
El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones virtuales entre personas. Conociendo este hecho y relacionándolo con la felicidad originada por las relaciones personales, es posible concluir que cuando una persona tenga una necesidad de conocimiento popular o de conocimiento no escrito en libros, puede recurrir a una fuente más acorde a su necesidad. Como ahora esta fuente es posible en Internet, dicha persona preferirá prescindir del obligado protocolo que hay que cumplir a la hora de acercarse a alguien personalmente para obtener dicha información y, por ello, no establecerá, para ese fin, una relación personal sino virtual. Este hecho implica la existencia de un medio capaz de albergar soluciones para diversa índole de problemas.


ACCESO A INTERNET
Internet incluye aproximadamente 5.000 redes en todo el mundo y más de 100 protocolos distintos basados en TCP/IP, que se configura como el protocolo de la red. Los servicios disponibles en la red mundial de PC, han avanzado mucho gracias a las nuevas tecnologías de transmisión de alta velocidad, como ADSL y Wireless, se ha logrado unir a las personas con videoconferencia, ver imágenes por satélite (ver tu casa desde el cielo), observar el mundo por webcams, hacer llamadas telefónicas gratuitas, o disfrutar de un juego multijugador en 3D, un buen libro PDF, o álbumes y películas para descargar.
El método de
acceso a Internet vigente hace algunos años, la telefonía básica, ha venido siendo sustituido gradualmente por conexiones más veloces y estables, entre ellas el ADSL, Cable Módems, o el RDSI. También han aparecido formas de acceso a través de la red eléctrica, e incluso por satélite (generalmente, sólo para descarga, aunque existe la posibilidad de doble vía, utilizando el protocolo DVB-RS).
Internet también está disponible en muchos lugares públicos tales como
bibliotecas, bares, restaurantes, hoteles o cibercafés y hasta en centros comerciales. Una nueva forma de acceder sin necesidad de un puesto fijo son las redes inalámbricas, hoy presentes en aeropuertos, subterráneos, universidades o poblaciones enteras.