La computadora le sirve al hombre como una valiosa herramienta para realizar y simplificar muchas de sus actividades.Una computadora u ordenador es un sistema digital con tecnología microelectrónica, capaz de procesar datos a partir de un grupo de instrucciones denominado programa.
¿Que realiza la computadora?
Operaciones de entrada al ser receptora de información.
Operaciones de cálculo, lógica y almacenamiento.
En la actualidad las computadoras tienen aplicaciones más prácticas, porque sirve no solamente para Computar y calcular, sino para realizar múltiples procesos sobre los datos proporcionados, tales como clasificar u ordenar, seleccionar, corregir y automatizar, entre otros, por estos motivos en Europa su nombre que más común es el de ordenador.- Operaciones de salida al proporcionar resultados de las operaciones antecedente
Sus Componentes:
El Hardware son las partes del aparato, CPU o centro de control, compuesto por chips ( diminutas piezas de silicio con circuitos impresores en cobre; sus interruptores abren o cierran el paso de la corriente eléctrica);memorias( temporaria o RAM, para cada sesión de trabajo; y ROM, en el disco duro, para almacenar datos y programas);dispositivos de entrada, ingresan ordenes y datos ( teclado, Mouse, joystick para juegos, scanner para grabar imágenes, micrófono, etc.); y dispositivos de salida de datos( monitos, impresora, MODEM, que pasa información por teléfono). El Software son los programas o conjuntos de instrucciones para que la computadora trabaje.
A continuacion veremos un esquema donde se presentaran todal las partes de una computadora y a bajo las correspondientes explicaciones de cada componente
1: Monitor
2: Placa base
3: Procesador
4: Puertos ATA
5: Memoria principal (RAM)
6: Placas de expansión
7: Fuente eléctrica
8: Unidad de almacenamiento óptico
9: Disco duro
10: Teclado
11: Mouse
2: La placa base, placa madre o tarjeta madre es la tarjeta de circuitos impresos que sirve como medio de conexión entre el microprocesador, los circuitos electrónicos de soporte, las ranuras para conectar parte o toda la RAM del sistema, la ROM y las ranuras especiales que permiten la conexión de tarjetas adaptadoras adicionales. Estas tarjetas de expansión suelen realizar funciones de control de periféricos tales como monitores, impresoras, unidades de disco, etc.
3: La Unidad Central de Proceso, CPU, ó simplemente el procesador. Es el componente en una computadora digital que interpreta las instrucciones y procesa los datos contenidos en los programas de computadora.
4: El sistema IDE (Integrated Device Electronic)s, "Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment,) controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) y además añade dispositivos como las unidades CD-ROM.
5: RAM es la abreviatura en inglés de Random Access Memory Module (memoria de acceso aleatorio ó memoria de acceso directo). Se trata de una memoria de semiconductor en la que se puede tanto leer como escribir información. Es una memoria volátil, es decir, pierde su contenido al desconectar la energía eléctrica. Se utiliza normalmente como memoria temporal para almacenar resultados intermedios y datos similares no permanentes. Se dicen "de acceso aleatorio" o "de acceso directo" porque los diferentes accesos son independientes entre sí.
3: La Unidad Central de Proceso, CPU, ó simplemente el procesador. Es el componente en una computadora digital que interpreta las instrucciones y procesa los datos contenidos en los programas de computadora.
4: El sistema IDE (Integrated Device Electronic)s, "Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment,) controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) y además añade dispositivos como las unidades CD-ROM.
5: RAM es la abreviatura en inglés de Random Access Memory Module (memoria de acceso aleatorio ó memoria de acceso directo). Se trata de una memoria de semiconductor en la que se puede tanto leer como escribir información. Es una memoria volátil, es decir, pierde su contenido al desconectar la energía eléctrica. Se utiliza normalmente como memoria temporal para almacenar resultados intermedios y datos similares no permanentes. Se dicen "de acceso aleatorio" o "de acceso directo" porque los diferentes accesos son independientes entre sí.
9: Se llama disco duro o disco rígido (en inglés hard disk, abreviado con frecuencia HD o HDD) al dispositivo encargado de almacenar información de forma permanente en una computadora.
11: El mouse o ratón es un periférico de computadora de uso manual, generalmente fabricado en plástico, utilizado como entrada o control de datos.
10: Un teclado de computadora (ordenador) es un periférico, físico o virtual, utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento.
El teletipo es un sistema de transmisión de textos, vía telegráfica, a través de un teclado que permite la emisión, recepción e impresión del mensaje.
Una máquina de escribir es un aparato mecánico, electromecánico o electrónico con un conjunto de teclas que al ser presionadas imprimen caracteres en un documento, normalmente papel. La persona que opera una máquina de escribir recibe el nombre de mecanógrafo.
1: El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora.
En términos generales, una interfaz es el punto, el área, o la superficie a lo largo de la cual dos cosas de naturaleza distinta convergen. Por extensión, se denomina interfaz a cualquier medio que permita la interconexión de dos procesos diferenciados con un único propósito común.
6: Las tarjetas de expansión son dispositivos con diversos circuitos integrados y controladores que, insertadas en sus correspondientes ranuras de expansión, sirven para ampliar la capacidad de un ordenador. Las tarjetas de expansión más comunes sirven para añadir memoria, controladoras de unidad de disco, controladoras de vídeo, puertos serie o paralelo y dispositivos de módem internos.
7: En electricidad se entiende por fuente al elemento activo que es capaz de generar una diferencia de potencial (d. d. p.) y proporcionar una corriente eléctrica.
8: Variante de almacenamiento informático surgida a finales del siglo XX consistente en la lectura a través de haces de luz que interpretan las refracciones provocadas sobre su propia emisión. Los soportes de almacenamiento más famosos que hacen uso de este tipo de almacenamiento son el CD-ROM y el DVD.
Wikipedia, La enciclopedia libre
COMPUTADORA ANALÓGICA
1 0 1 0 0 1 1 0 1 0
- - - - -
x o x o o x x o x o
y n y n n y y n y n
Arte ASCII:
Fuente
El teletipo es un sistema de transmisión de textos, vía telegráfica, a través de un teclado que permite la emisión, recepción e impresión del mensaje.
Una máquina de escribir es un aparato mecánico, electromecánico o electrónico con un conjunto de teclas que al ser presionadas imprimen caracteres en un documento, normalmente papel. La persona que opera una máquina de escribir recibe el nombre de mecanógrafo.
1: El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora.
En términos generales, una interfaz es el punto, el área, o la superficie a lo largo de la cual dos cosas de naturaleza distinta convergen. Por extensión, se denomina interfaz a cualquier medio que permita la interconexión de dos procesos diferenciados con un único propósito común.
6: Las tarjetas de expansión son dispositivos con diversos circuitos integrados y controladores que, insertadas en sus correspondientes ranuras de expansión, sirven para ampliar la capacidad de un ordenador. Las tarjetas de expansión más comunes sirven para añadir memoria, controladoras de unidad de disco, controladoras de vídeo, puertos serie o paralelo y dispositivos de módem internos.
7: En electricidad se entiende por fuente al elemento activo que es capaz de generar una diferencia de potencial (d. d. p.) y proporcionar una corriente eléctrica.
8: Variante de almacenamiento informático surgida a finales del siglo XX consistente en la lectura a través de haces de luz que interpretan las refracciones provocadas sobre su propia emisión. Los soportes de almacenamiento más famosos que hacen uso de este tipo de almacenamiento son el CD-ROM y el DVD.
Wikipedia, La enciclopedia libre
Fecha de consulta: 31/07/07
Datos Curiosos:
Links
Sitio Interactivo
http://ciberhabitat.gob.mx/escuela/alumnos/funcionamiento.htm#.
http://ciberhabitat.gob.mx/escuela/alumnos/funcionamiento.htm#.
Contiene una animacion multimedia para aprender las partes que componen un ordenador en su interior y en su exterior.
Tipos de computadoras:
Se clasifican de acuerdo al principio de operación de Analógicas y Digitales.
COMPUTADORA ANALÓGICA
1. Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).
COMPUTADORA DIGITAL
COMPUTADORA DIGITAL
1.Que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina.
Historia de la computadora, su evolucion:
6000 a. C.
Origen de nuestra civilización aproximadamente.
2500 a. C.
En China se inventa el ábaco considerado como la primera "máquina" que se utiliza para facilitar las operaciones de cálculo.
500 a. C.
Los romanos también emplean ábacos y piedrecillas, a las que dominan cálculos, originándose así dicho término.
46 a. C.
Herón de Alejandría inventa el primer "robot", que simulaba un actor de teatro, usando elementos hidráulicos.
1614
El escocés John Napier publica la obra Rabdología, que contiene las primeras tablas de logaritmos. Naiper también inventó unas tablas de multiplicar movibles, conocidas como huesos de Naiper, siendo éstas al antecedente directo de la regla de cálculo.
1621
El inglés William Oughtred inventa un instrumento conocido como regla de cálculo.
1642
El francés Blas Pascal, que cuenta con solo 19 años de edad, fabrica la primera sumadora mecánica, conocida como Pascalina. Algunos autores atribuyen al alemán Wilhem Schickard la construcción de la primera máquina mecánica basada en engranes. Ésta es igual a la de Pascal, pero se destruye en un incendio y Schickard muere antes de poder reconstruirla.
1666
Samuel Morland perfecciona la máquina de Pascal, al incorporarle la operación de multiplicación.
1673
El matemático alemán Gotffried Leibniz inventa una máquina multiplicadora. Sin embargo, es hasta 1889 cuando se logra tener una máquina capaz de realizar las 4 operaciones básicas.
1801
Durante la revolución industrial, el francés Joseph Jacquard desarrolla un telar que hace automáticas las tareas repetitivas. Para ello, emplea una lectora de tarjetas perforadoras.
1822
Charles Babbage es el responsable del avance más importante del siglo XIX. Primero trabaja en el diseño de una máquina diferencial, que pudiera producir tablas logarítmicas de 6 dígitos. Nunca la termina, porque inicia el proyecto de la máquina analítica, realmente una máquina procesadora de información, capaz de controlar automáticamente su funcionamiento. No logra construirla porque su diseño necesita un desarrollo tecnológico superior al de su época. Sin embargo, se le considera como el padre de la computadora digital.
Augusta Ada, hija del poeta Lord Byron, realiza grandes contribuciones al trabajo de Babbage. Elabora importantes métodos de programación, entre los que se incluyen las subrutinas (saltos dentro del programa), las iteraciones (repetición de rutinas) y el salto condicional (permite que el programa tome decisiones automáticas). Además, cambia del sistema decimal al binario para procesar las tarjetas perforadoras.
1847
El británico George Boole publica El análisis matemático de pensamiento, obra en la que plantea una nueva álgebra. Más tarde, en 1854, da a conocer Las leyes del pensamiento, se trata de un método para resolver problemas de lógica, que solo utiliza los valores binario "1" y "0" y tres operadores lógicos: Y, O y NO.
1890
El estadounidense Herman Hollerith utiliza tarjetas perforadoras para procesar los datos del Censo de los Estados Unidos, de acuerdo con un sistema creado por él en 1886, el cual se basa en la lógica de Boole y utiliza la electricidad. Más tarde Hollerith fundaría la empresa Tabulating Machine Company, antecesora de la firma conocida internacionalmente como IBM.
1906
Lee De Forest inventa un tuvo de vacío (llamado vulgarmente "bulbo"), integrado por tres filamentos el cual representa el inicio de la electrónica. Más adelante, las primeras computadoras estarían integradas con una gran cantidad de estos tubos. También se utilizaron en radios, tocadiscos y televisores.
1919
Los estadounidenses W. H. Eccles y F. W. Jordan crean un nuevo circuito binario, capaz de reconocer y tomar uno de los estados estables (0, 1). Se llama "flip-flop".
1930
El Dr. Vannevar Bush construye la primera computadora analógica con elementos electromecánicos.
1936 - 1941
Konrad Suze construye en Alemania dos máquinas electromecánicas de cálculo, muy parecidas a la que sería la primera computadora. Finalmente, en 1941 presenta la "Z3", una computadora electromagnética que puede programarse con una cinta perforada.
1940
Los investigadores estadounidenses George Stibitz y S. B. Williams, de los laboratorios Bell, construyen una calculadora de secuencia automática. Utiliza interruptores ordinarios, como los usados en los conmutadores telefónicos de entonces.
1941
Claude Shannon demuestra que la programación de las futuras computadoras es un problema lógico y no de aritmética. Con ello se reconoce la importancia del álgebra de Boole, científico que definió el concepto de bit.
1943
Alan M. Turing elabora en Gran Bretaña un proyecto (teórico) de un cerebro artificial. Durante la II Guerra Mundial participa en el desarrollo de la computadora "COLOSSUS". En 1947 publica Maquinaria inteligente, donde aborda el tema de la inteligencia artificial.
1944
Howard Aiken y un grupo de graduados de Harward inician el diseño y la construcción de la primera llamada "MARK I", basada en la máquina analítica de Babbage.
1947
John P. Eckert y John W. Mauchly construyen, en la Universidad de Pennsylvania, la primera computadora totalmente electrónica denominada ENIAC. Antes de terminarla, se inicia la construcción de la EDVAC. Ésta ya toma en cuenta la teorías sobre programación almacenada en la memoria de la máquina.
1950
En Estados Unidos, el doctor John von Neumann, originario de Hungría, desarrolla la máquina EDSAC, incorporándole gran cantidad de ideas sobre almacenamiento de programas en la memoria.
1951
Con la máquina UNIVAC se inicia el concepto de generaciones de computadoras. [1]
1971
El uso del transistor en los años 50 y 60, permitió compactar los diseños de las computadoras, y por lo tanto, salir del terreno experimental para ser usadas por los gobiernos y las grandes corporaciones. Pero el verdadero impulso al desarrollo de las computadoras, descansaría en el diseño del microprocesador; una pastilla de silicio en la que se incluyeron los componentes que constituyen el núcleo de una computadora: la unidad aritmética lógica, los registros, los controles de direcciones, etc. Fue Intel, la empresa que diseño y fabricó por primera vez este revolucionario dispositivo.
1975
Con la invención del microprocesador, surgieron las primeras computadoras de uso personal, dirigidas más bien a un público estudiantil y aficionado. Pero la propuestas que presentó las bases del concepto de "máquina modular", fue el modelo Altair, en 1975; esta pequeña computadora se diseño con base en una arquitectura abierta, mediante ranuras o slots para conectar aditamentos y periféricos de otras marcas. De hecho, el éxito de esta máquina incentivó el desarrollo de los sistema operativos y programas de usuarios estandarizados, para que el usuario no tuviera que programar su propio software. Entre los diseños que también fueron célebres en esos años, están: Atari, Apple y Commodore. Todos ellos, de una u otra forma, fueron creando el mercado de computadoras personales y en algunos casos aportando conceptos tecnológicos en los que descansaría la revolución de estándar PC, de IBM.
6000 a. C.
Origen de nuestra civilización aproximadamente.
2500 a. C.
En China se inventa el ábaco considerado como la primera "máquina" que se utiliza para facilitar las operaciones de cálculo.
500 a. C.
Los romanos también emplean ábacos y piedrecillas, a las que dominan cálculos, originándose así dicho término.
46 a. C.
Herón de Alejandría inventa el primer "robot", que simulaba un actor de teatro, usando elementos hidráulicos.
1614
El escocés John Napier publica la obra Rabdología, que contiene las primeras tablas de logaritmos. Naiper también inventó unas tablas de multiplicar movibles, conocidas como huesos de Naiper, siendo éstas al antecedente directo de la regla de cálculo.
1621
El inglés William Oughtred inventa un instrumento conocido como regla de cálculo.
1642
El francés Blas Pascal, que cuenta con solo 19 años de edad, fabrica la primera sumadora mecánica, conocida como Pascalina. Algunos autores atribuyen al alemán Wilhem Schickard la construcción de la primera máquina mecánica basada en engranes. Ésta es igual a la de Pascal, pero se destruye en un incendio y Schickard muere antes de poder reconstruirla.
1666
Samuel Morland perfecciona la máquina de Pascal, al incorporarle la operación de multiplicación.
1673
El matemático alemán Gotffried Leibniz inventa una máquina multiplicadora. Sin embargo, es hasta 1889 cuando se logra tener una máquina capaz de realizar las 4 operaciones básicas.
1801
Durante la revolución industrial, el francés Joseph Jacquard desarrolla un telar que hace automáticas las tareas repetitivas. Para ello, emplea una lectora de tarjetas perforadoras.
1822
Charles Babbage es el responsable del avance más importante del siglo XIX. Primero trabaja en el diseño de una máquina diferencial, que pudiera producir tablas logarítmicas de 6 dígitos. Nunca la termina, porque inicia el proyecto de la máquina analítica, realmente una máquina procesadora de información, capaz de controlar automáticamente su funcionamiento. No logra construirla porque su diseño necesita un desarrollo tecnológico superior al de su época. Sin embargo, se le considera como el padre de la computadora digital.
Augusta Ada, hija del poeta Lord Byron, realiza grandes contribuciones al trabajo de Babbage. Elabora importantes métodos de programación, entre los que se incluyen las subrutinas (saltos dentro del programa), las iteraciones (repetición de rutinas) y el salto condicional (permite que el programa tome decisiones automáticas). Además, cambia del sistema decimal al binario para procesar las tarjetas perforadoras.
1847
El británico George Boole publica El análisis matemático de pensamiento, obra en la que plantea una nueva álgebra. Más tarde, en 1854, da a conocer Las leyes del pensamiento, se trata de un método para resolver problemas de lógica, que solo utiliza los valores binario "1" y "0" y tres operadores lógicos: Y, O y NO.
1890
El estadounidense Herman Hollerith utiliza tarjetas perforadoras para procesar los datos del Censo de los Estados Unidos, de acuerdo con un sistema creado por él en 1886, el cual se basa en la lógica de Boole y utiliza la electricidad. Más tarde Hollerith fundaría la empresa Tabulating Machine Company, antecesora de la firma conocida internacionalmente como IBM.
1906
Lee De Forest inventa un tuvo de vacío (llamado vulgarmente "bulbo"), integrado por tres filamentos el cual representa el inicio de la electrónica. Más adelante, las primeras computadoras estarían integradas con una gran cantidad de estos tubos. También se utilizaron en radios, tocadiscos y televisores.
1919
Los estadounidenses W. H. Eccles y F. W. Jordan crean un nuevo circuito binario, capaz de reconocer y tomar uno de los estados estables (0, 1). Se llama "flip-flop".
1930
El Dr. Vannevar Bush construye la primera computadora analógica con elementos electromecánicos.
1936 - 1941
Konrad Suze construye en Alemania dos máquinas electromecánicas de cálculo, muy parecidas a la que sería la primera computadora. Finalmente, en 1941 presenta la "Z3", una computadora electromagnética que puede programarse con una cinta perforada.
1940
Los investigadores estadounidenses George Stibitz y S. B. Williams, de los laboratorios Bell, construyen una calculadora de secuencia automática. Utiliza interruptores ordinarios, como los usados en los conmutadores telefónicos de entonces.
1941
Claude Shannon demuestra que la programación de las futuras computadoras es un problema lógico y no de aritmética. Con ello se reconoce la importancia del álgebra de Boole, científico que definió el concepto de bit.
1943
Alan M. Turing elabora en Gran Bretaña un proyecto (teórico) de un cerebro artificial. Durante la II Guerra Mundial participa en el desarrollo de la computadora "COLOSSUS". En 1947 publica Maquinaria inteligente, donde aborda el tema de la inteligencia artificial.
1944
Howard Aiken y un grupo de graduados de Harward inician el diseño y la construcción de la primera llamada "MARK I", basada en la máquina analítica de Babbage.
1947
John P. Eckert y John W. Mauchly construyen, en la Universidad de Pennsylvania, la primera computadora totalmente electrónica denominada ENIAC. Antes de terminarla, se inicia la construcción de la EDVAC. Ésta ya toma en cuenta la teorías sobre programación almacenada en la memoria de la máquina.
1950
En Estados Unidos, el doctor John von Neumann, originario de Hungría, desarrolla la máquina EDSAC, incorporándole gran cantidad de ideas sobre almacenamiento de programas en la memoria.
1951
Con la máquina UNIVAC se inicia el concepto de generaciones de computadoras. [1]
1971
El uso del transistor en los años 50 y 60, permitió compactar los diseños de las computadoras, y por lo tanto, salir del terreno experimental para ser usadas por los gobiernos y las grandes corporaciones. Pero el verdadero impulso al desarrollo de las computadoras, descansaría en el diseño del microprocesador; una pastilla de silicio en la que se incluyeron los componentes que constituyen el núcleo de una computadora: la unidad aritmética lógica, los registros, los controles de direcciones, etc. Fue Intel, la empresa que diseño y fabricó por primera vez este revolucionario dispositivo.
1975
Con la invención del microprocesador, surgieron las primeras computadoras de uso personal, dirigidas más bien a un público estudiantil y aficionado. Pero la propuestas que presentó las bases del concepto de "máquina modular", fue el modelo Altair, en 1975; esta pequeña computadora se diseño con base en una arquitectura abierta, mediante ranuras o slots para conectar aditamentos y periféricos de otras marcas. De hecho, el éxito de esta máquina incentivó el desarrollo de los sistema operativos y programas de usuarios estandarizados, para que el usuario no tuviera que programar su propio software. Entre los diseños que también fueron célebres en esos años, están: Atari, Apple y Commodore. Todos ellos, de una u otra forma, fueron creando el mercado de computadoras personales y en algunos casos aportando conceptos tecnológicos en los que descansaría la revolución de estándar PC, de IBM.
Funcionamiento de una computadora:
En las computadoras, interruptores pequeñísimos regulan el paso de la corriente eléctrica por circuitos o chips. La información elaborada se traduce a dígitos del sistema de numeración binario, que combina solo dos signos (0 y 1). En la computadora, estas cifras o bits corresponden respectivamente a la ausencia o a la presencia de corriente eléctrica, y esta sucesión de pasos de corriente hace funcionar el aparato los bytes (ñeque se miden la memoria de una computadora) son conjuntos de 8 bits.
En las computadoras, interruptores pequeñísimos regulan el paso de la corriente eléctrica por circuitos o chips. La información elaborada se traduce a dígitos del sistema de numeración binario, que combina solo dos signos (0 y 1). En la computadora, estas cifras o bits corresponden respectivamente a la ausencia o a la presencia de corriente eléctrica, y esta sucesión de pasos de corriente hace funcionar el aparato los bytes (ñeque se miden la memoria de una computadora) son conjuntos de 8 bits.
¿Que es un codigo Binario?
Habitualmente los codigos binarios representan numeros (que a su vez representan valores que va asumiendo una variable fisica o electrica), o bien señales de control , de mando o de estado (informando sobre el estado de una operacion o proceso) . En este caso veremos la representacion de numeros. Aun asi, hay diversas correspondencias posibles.
1 0 1 0 0 1 1 0 1 0
- - - - -
x o x o o x x o x o
y n y n n y y n y n
El valor numérico representado en cada caso depende del valor asignado a cada símbolo. En un ordenador, los valores numéricos pueden ser representados por dos voltajes diferentes.
De acuerdo con la representación acostumbrada de cifras que usan números árabes, los números binarios comúnmente son escritos usando los símbolos 0 y 1.
De acuerdo con la representación acostumbrada de cifras que usan números árabes, los números binarios comúnmente son escritos usando los símbolos 0 y 1.
Codigos Alfanumericos
ASCII y EBCD
Muchas de las aplicaciones de las computadoras digitales requieren la manipulación de datos que constan no sólo de números, sino también de letras. Para representar cadenas de caracteres alfabéticos es necesario tener un código binario para el alfabeto. Además el mismo código binario debe representar números y algunos otros caracteres especiales.
Un código alfanumérico es un código binario de un grupo de elementos que constan de diez dígitos decimales, las 26 letras del alfabeto y cierto número de de símbolos especiales como el $. El número total de elementos en un grupo alfanumérico es mayor de 36. Por lo tanto debe codificarse con un mínimo de seis bits (2 6= 64, pero 2 3 = 32 no es suficiente).
Para superar los inconvenientes de la representación binaria real, se han desarrollado varios códigos en base binaria. Estos códigos ponen a disposición de la computadora letras y otros tipos de caracteres, así como números en forma binaria. Debido a que son códigos de longitud fija, la computadora puede con facilidad decir cuándo termina un carácter y empieza otro.
El ASCII ( The American Standard Code for Information Interchange, Código Estándar estadounidense para el intercambio de información) es un código desarrollado por el Instituto Estadounidense de Normas y fue diseñado originalmente como un código de 7 bits que podía representar 128 (2 7 ) caracteres.
El ASCII, nace de la necesidad de representar digitos decimales, letras minúsculas, letras mayúsculas y gran número de caracteres adicionales que antes no se podían expresar usando las 64 combinaciones del BCD. El ASCII se usa de forma muy extensa en la comunicación de datos y es el código que se utiliza para representar los datos internamente en las computadoras personales.
El código ASCII es un código consta de siete bits, pero en la práctica es un código de ocho bits debido a que de manera invariable se agrega un bit por paridad.
Un código alfanumérico es un código binario de un grupo de elementos que constan de diez dígitos decimales, las 26 letras del alfabeto y cierto número de de símbolos especiales como el $. El número total de elementos en un grupo alfanumérico es mayor de 36. Por lo tanto debe codificarse con un mínimo de seis bits (2 6= 64, pero 2 3 = 32 no es suficiente).
Para superar los inconvenientes de la representación binaria real, se han desarrollado varios códigos en base binaria. Estos códigos ponen a disposición de la computadora letras y otros tipos de caracteres, así como números en forma binaria. Debido a que son códigos de longitud fija, la computadora puede con facilidad decir cuándo termina un carácter y empieza otro.
El ASCII ( The American Standard Code for Information Interchange, Código Estándar estadounidense para el intercambio de información) es un código desarrollado por el Instituto Estadounidense de Normas y fue diseñado originalmente como un código de 7 bits que podía representar 128 (2 7 ) caracteres.
El ASCII, nace de la necesidad de representar digitos decimales, letras minúsculas, letras mayúsculas y gran número de caracteres adicionales que antes no se podían expresar usando las 64 combinaciones del BCD. El ASCII se usa de forma muy extensa en la comunicación de datos y es el código que se utiliza para representar los datos internamente en las computadoras personales.
El código ASCII es un código consta de siete bits, pero en la práctica es un código de ocho bits debido a que de manera invariable se agrega un bit por paridad.
! " # $ % & ' ( ) * + , - . / 0 1 2 3 4 5 6 7 8 9 : ; < = > ?
@ A B C D E F G H I J K L M N O P Q R S T U V W X Y Z [ \ ] ^ _
` a b c d e f g h i j k l m n o p q r s t u v w x y z { } ~
@ A B C D E F G H I J K L M N O P Q R S T U V W X Y Z [ \ ] ^ _
` a b c d e f g h i j k l m n o p q r s t u v w x y z { } ~
Datos Curiosos:
Arte ASCII:
El código de caracteres ASCII es el soporte de una disciplina artística minoritaria, el arte ASCII, que consiste en la composición imágenes mediante caracteres imprimibles ASCII. El efecto resultante ha sido comparado con el puntillismo, pues las imágenes producidas con esta técnica generalmente se aprecian con más detalle al ser vistas a distancia. El arte ASCII empezó siendo un arte experimental, pero pronto se popularizó como recurso para representar imágenes en soportes incapaces de procesar gráficos, como teletipos, terminales, correos electrónicos o algunas impresoras.
Aunque se puede componer arte ASCII manualmente mediante un editor de textos, también se pueden convertir automáticamente imágenes y vídeos en ASCII mediante software, como la librería Aalib (de licencia libre), que ha alcanzado cierta popularidad. ramas de diseño gráfico, juegos y reproductores de vídeo.
Aunque se puede componer arte ASCII manualmente mediante un editor de textos, también se pueden convertir automáticamente imágenes y vídeos en ASCII mediante software, como la librería Aalib (de licencia libre), que ha alcanzado cierta popularidad. ramas de diseño gráfico, juegos y reproductores de vídeo.
Fuente
Wikipedia, la enciclopedia libre
Fecha de vista:31/07/07
Monografias
Fecha de vista:31/07/07
Protocolo de transmision de señales binarias:
- Asignar a cada valor (0,1) un estado (Prendido, Apagado)
- Dividir el tiempo en intervalos regulares
- Enviar señal de inicio (Opuesto al estado de la linea cuando no transmite para no confundir)
- Ponerse de acuardo en el orden de transmisión ( b0 a b7 o de b7 a b0)
- Bit de fin ( Opuesto al bit de inicio).
- Dividir el tiempo en intervalos regulares
- Enviar señal de inicio (Opuesto al estado de la linea cuando no transmite para no confundir)
- Ponerse de acuardo en el orden de transmisión ( b0 a b7 o de b7 a b0)
- Bit de fin ( Opuesto al bit de inicio).
Hoy en dia: Internet
Como se conectan las computadoras en el mundo
Para finalizar este trabajo agradecemos a todas las fuentes que nos brindaron el material necesario para trabaja.
No hay comentarios:
Publicar un comentario