sofware

EL SOTFWARE

Se conoce como software al equipo lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas, tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
El anglicismo software es el más ampliamente difundido al referirse a este concepto, especialmente en la jerga técnica; en tanto que el término sinónimo «logicial», derivado del término francés logiciel, es utilizado mayormente en países y zonas de influencia francesa. Su abreviatura es Sw.

cronologia de la compuradora

A continuación, se presentan resumidamente los principales hitos en la historia de los ordenadores, desde las primeras herramientas manuales para hacer cálculos hasta las modernas computadoras de bolsillo.
2700 a. C.: se utiliza el ábaco en antiguas civilizaciones como la china o la sumeria, la primera herramienta para realizar sumas y restas.
Hacia 830: el matemático e ingeniero persa Musa al-Juarismi inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.
1614: el escocés John Napier inventa el logaritmo neperiano, que consiguió simplificar el cálculo de multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
1620: el inglés Edmund Gunter inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta la aparición de la calculadora electrónica para hacer operaciones aritméticas.
1623: el alemán Wilhelm Schickard inventa la primera máquina de calcular, cuyo prototipo desapareció poco después.
1642: el científico y filósofo francés Blaise Pascal inventa una máquina de sumar (la pascalina), que utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares originales.
1671: el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y dividir.
1801: el francés Joseph Jacquard inventa para su máquina de tejer brocados una tarjeta perforada que controla el patrón de funcionamiento de la máquina, una idea que sería empleada más adelante por los primeros ordenadores.
1833: el matemático e inventor británico Charles Babbage diseña e intenta construir la primera computadora, de funcionamiento mecánico, a la que llamó la "máquina analítica". Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada para hacer realidad su idea.
1890: el norteamericano Hermann Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de Babbage, que se utilizó para elaborar el censo de EEUU. Hollerith fundó posteriormente la compañía que después se convertiría en IBM.
1893: el científico suizo Otto Steiger desarrolla la primera calculadora automática que se fabricó y empleó a escala industrial, conocida como la Millonaria.
1936: el matemático y computólogo inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing, que serían claves en el desarrollo de la computación moderna.
1938: El ingeniero alemán Konrad Zuse completa la Z1, la primera computadora que se puede considerar como tal. De funcionamiento electromecánico y utilizando relés, era programable (mediante cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían los modelos mejorados Z2, Z3 y Z4.
1944: En Estados Unidos la empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada en EEUU.
1944: En Inglaterra se construyen los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda Guerra Mundial.
1947: En la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que funcionaba a válvulas y fue la primera computadora electrónica de propósito general.
1947: en los Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
1951: comienza a operar la EDVAC, concebida por John von Neumann, que a diferencia de la ENIAC no era decimal, sino binaria, y tuvo el primer programa diseñado para ser almacenado.
1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras. Los ordenadores con transistores reemplazan a los de válvulas, marcando el comienzo de la segunda generación de computadoras.
1957: Jack S. Kilby construye el primer circuito integrado.
1964: La aparición del IBM 360 marca el comienzo de la tercera generación de computadoras, en la que las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
1971: Nicolette Instruments Corp. lanza al mercado la Nicolette 1080, una computadora de uso científico basada en registros de 20 bits, cuya versatilidad para el cálculo de la Transformada Rápida de Fourier le brinda gran aceptación en el campo de la Resonancia magnética nuclear.
1971: Intel presenta el primer procesador comercial y a la vez el primer chip Microprocesador, el Intel 4004.
1975: Paul Alen y Bill Gates fundan Microsoft.
1976: Steve Jobs, Steve Wozniak, Mike Markkula y otros amigos mas fundan Apple.
1977: Apple presenta el primer computador personal que se vende a gran escala, el Apple II, desarrollado por Steve Jobs y Steve Wozniak.
1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
1982: Microsoft presenta su sistema operativo MS-DOS, por encargo de IBM.
1983: ARPANET se separa de la red militar que la originó, pasando a un uso civil y convirtiéndose así en el origen de Internet.
1983: Richard Stallman anuncia públicamente el proyecto GNU.
1985: Microsoft presenta el sistema operativo Windows 1.0.
1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www), una nueva manera de interactuar con Internet.
1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
2000: aparecen a comienzos del siglo XXI los ordenadores de bolsillo, primeras PDAs
2007: Presentación del primer iPhone, por la empresa Apple, un teléfono inteligente o smartphone.

la computadora

LA COMPUTADORA

La computadora (del inglés: computer; y este del latín: computare, 'calcular'), también denominada computador u ordenador5 6 (del francés: ordinateur; y éste del latín: ordinator), es una máquina electrónica que recibe y procesa datospara convertirlos en información conveniente y útil que posteriormente se envían a las unidades de salida. Un ordenador está formado, físicamente, por numerosos circuitos integrados y otros muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa.(software)
Dos partes esenciales la constituyen, el hardware, (hard = duro) que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etc.).
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones aritmético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.
El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, esto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, sobre la base de datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención.
Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado.
Si bien esta máquina puede ser de dos tipos, analógica o digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es la computadora digital (de propósitos generales); de tal modo que en términos generales (incluso populares), cuando se habla de "la computadora" se está refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas computadoras híbridas, siendo también éstas de propósitos especiales.



En la Segunda Guerra mundial se utilizaron computadoras analógicas mecánicas, orientadas a aplicaciones militares, y durante la misma se desarrolló la primera computadora digital, que se llamó ENIAC; ella ocupaba un enorme espacio y consumía grandes cantidades de energía, que equivalen al consumo de cientos de computadores actuales(PC’s). Los computadores modernos están basados en circuitos integrados, miles de millones de veces más veloces que las primeras máquinas, y ocupan una pequeña fracción de su espacio. 

Computadoras simples son lo suficientemente pequeñas para residir en los dispositivos móviles. Las computadoras portátiles, tales como tabletas, netbooks, notebooks, ultrabooks, pueden ser alimentadas por pequeñas baterías. Las computadoras personales en sus diversas formas son iconos de la Era de la información y son lo que la mayoría de la gente considera como "ordenador". Sin embargo, los ordenadores integrados se encuentran en muchos dispositivos actuales, tales como reproductores MP4; teléfonos celulares; aviones de combate, y, desde juguetes hasta robot industriales.


Ciborg

CIBORG

Un cíborg o cyborg (del acrónimo en inglés cyborg: de cyber [‘cibernético] y organism [‘organismo], ‘organismo cibernético es una criatura compuesta de elementos orgánicos y dispositivos cibernéticos generalmente con la intención de mejorar las capacidades de la parte orgánica mediante el uso de tecnología.
El término fue acuñado por Manfred E. Clynes y Nathan S. Kline en 1960 para referirse a un ser humano mejorado que podría sobrevivir en entornos extraterrestres. Llegaron a esa idea después de pensar sobre la necesidad de una relación más íntima entre los humanos y las máquinas en un momento en que empezaba a trazarse la nueva frontera representada por la exploración del espacio. Diseñador de instrumentación fisiológica y de sistemas de procesamiento de datos, Clynes era el director científico del Laboratorio de simulación dinámica de Rockland State Hospital, en Nueva York. El término apareció por primera vez en forma impresa,  meses antes, cuando The New York Times reportó sobre los aspectos psicofisiológicos del Espacio Simposio de vuelo donde Clynes y Kline presentaron por primera vez su papel: “Un cyborg es esencialmente un sistema hombre-máquina en el cual los mecanismos de control de la porción humana son modificados externamente por medicamentos o dispositivos de regulación para que el ser pueda vivir en un entorno diferente al normal”.
De acuerdo con algunas definiciones del término, la conexión física y metafísica de la humanidad con la tecnología, ya ha empezado a influir en la evolución futura del ser humano, al empezar a convertirnos en cíborgs.[cita requerida] Por ejemplo, una persona a la que se le haya implantado un marcapasos podría considerarse un cíborg, puesto que sería incapaz de sobrevivir sin ese componente mecánico. Otras tecnologías médicas, como el implante coclear, que permite que un sordo oiga a través de un micrófono externo conectado a su nervio auditivo, también hacen que sus usuarios adquieran acceso a un sentido gracias a la tecnología, aproximando su experiencia a la de un cíborg. 




Origenes:


El concepto del híbrido hombre-máquina fue y es generalizado en la ciencia ficción antes de que ocurriera la Segunda Guerra Mundial. En “The Man That Was Used Up” (1839), Edgar Allan Poe, por ejemplo, describe a John A. B. C. Smith, un héroe de guerra con un cuerpo compuesto de múltiples prótesis. En 1910, el escritor francés Jean de la Hire presenta a Nyctalope (para algunos el primer superhéroe y también el primer cíborg literario) en la novela L'homme qui peut vivre dans l'eau (El hombre que puede vivir en el agua). Por su parte, en “The Comet Doom” (1928), el estadounidense Edmon Hamilton describe exploradores espaciales cuyos cuerpos combinan partes orgánicas y mecánicas. Este mismo autor es conocido por el peculiar cerebro viviente y parlante, siempre flotando en un receptáculo transparente, que acompaña al superhéroe Capitán Futuro (1939). Hamilton utiliza el término de forma explícita en el cuento "After a Judgmente Day" (1962) para referirse a los "las copias mecánicas de humanos" llamadas "Charlies" explicando que "cíborgs es como se les había llamado, desde el primero [el primer Charlie] a inicios de la década de 1960...organismos cibernéticos"


aplicacion de la bionica

Campos de la Aplicación de la Biónica.

Audiovisuales:
Gracias a la biónica, se ha podido llevar a cabo sistemas de adquisición, reproducción y compresión dentro del campo audiovisual, teniendo en cuenta las limitaciones de los sistemas auditivo y visual humanos.
Un claro ejemplo dentro del mundo de la adquisición son los micrófonos, los amplificadores, los altavoces que han sido diseñados de acuerdo con los rangos audibles por los humanos, es decir, de 20 Hz en 20KHz.
Como sistema de compresión de audio encontramos el MP3, que permite almacenar sonido a una calidad similar a la de un CD y con un índice de compresión muy elevado, del orden de 1:11. El sistema de codificación que utiliza el MP3 es un algoritmo de compresión con pérdida, es decir, el sonido original y lo que obtenemos no son idénticos. Eso se debe a que el MP3 aprovecha las deficiencias del oído humana y elimina toda aquella información que no es capaz de percibir.
Otro sistema de compresión, en este caso de imagen, es el JPEG en lo que la compresión se lleva a cabo, en gran parte, en el cromatismo ya que el sistema visual humano es mucho más sensible a la luminosidad que a los colores.
En el caso de los elementos de reproducción podemos mencionar el caso de las pantallas planas que se producen actualmente. Casi como todas las televisiones de tubo de color del pasado, poseen una proporción 1:1:1 de los tres elementos de color de rojo, verde y azul. Sin embargo, como los subpíxeles azules no ayudan casi nada en el ojo a la hora de resolver imágenes, la mayoría de estos píxelesse desprecian. Hay que decir que este sistema ha sido mejorado con los años haciendo las pantallas más eficientes.

Diseño de Productos:

Durante el último decenio, el oficio de diseñador ha aumentado considerablemente. Si nos fijamos en el caso de Leonardo Da Vinci, parece evidente que la biónica tendría que aportar al diseñador de hoy día este método de creatividad, de verificación de la validez de nuevas construcciones, una diversificación de las formas destinadas a unas funciones precisas. La relación forma-función es, sin lugar a dudas, el aspecto de la biónica que toca más particularmente el diseñador; y nos queremos referir al hecho que otros aspectos como los principios psicoquímicos del funcionamiento de algunos órganos sensoriales no los toca tan de cerca. Al contrario, una multitud de trabajos de biología tratan del doble aspecto de la relación forma-función: es el dominio de la morfología funcional. A causa de sus soluciones, a menudo inesperadas, la naturaleza esconde riquezas que los diseñadores estarían bien tentados de asimilar a sus diseños.

la biónica


LA BIONICA

La biónica es la aplicación de soluciones biológicas a la técnica de los sistemas de arquitectura, diseño, ingeniería y tecnología moderna. Etimológicamente, la palabra viene del griego "bios"; que significa vida y el sufijo "´-ico" que significa "relativo a".
Asimismo, existe la ingeniería biónica que abarca varias disciplinas con el objetivo de concatenar (hacer trabajar juntos) sistemas biológicos y electrónicos, por ejemplo para crear prótesis activadas por los robots controlados por una señal biológica o también crear modelos artificiales de cosas que solo existen en la naturaleza, por ejemplo la visión artificial y la inteligencia artificial también llamada cibernética.
Se podría decir, la biónica es aquella rama de la cibernética que trata de simular el comportamiento de los seres vivos haciéndolos mejores en casi todas las ramas por medio de instrumentos mecánicos.
Los seres vivos son máquinas complejas, dotadas de una gran variedad de instrumentos de medición, de análisis, de recepción de estímulos y de reacción y respuesta, esto es gracias a los cinco sentidos que hemos desarrollado.Crear máquinas que se comporten como cerebros humanos, capacitadas para observar un comportamiento inteligente y aprender de él, es parte del campo de la investigación de la robótica y la inteligencia artificial (IA). Dentro de ese comportamiento inteligente se encuentran tanto las actividades relacionadas con el raciocinio, es decir, estrategia y planeamiento, como con la percepción y reconocimiento de imágenes, colores, sonidos, etc.



ramas de la cibernetica

RAMAS DE LA CIBERNETICA


La inteligencia artificial (IA), o mejor llamada inteligencia computacional, es la inteligencia exhibida por máquinas. En ciencias de la computación, una máquina "inteligente" ideal es un agente racional flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea.1 2 3 4 Coloquialmente el término "inteligencia artificial" se aplica cuando una máquina imita las funciones "cognitivas" que los humanos asocian con otras mentes humanas, como por ejemplo: "aprender" y "resolver problemas". 5 A medida de que las máquinas se vuelven cada vez más capaces, tecnología que alguna vez se pensó que requería de inteligencia se elimina de la definición. Por ejemplo, el reconocimiento óptico de caracteres ya no se percibe como un ejemplo de la "inteligencia artificial" habiéndose convertido en una tecnología común.6 Avances tecnológicos todavía clasificados como inteligencia artificial son los sistemas capaces de jugar ajedrez, GO y manejar por si mismos.

En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como: "...la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes".
Para Nilsson son cuatro los pilares básicos en los que se apoya la inteligencia artificial:
  • Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
  • Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
  • Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
  • Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.
También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas, respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de computador, y otros videojuegos.

la computacion


LA COMPUTACION

el  término computación tiene su origen en el vocablo en latín computatio. Esta palabra permite abordar la noción de cómputo como cuenta o cálculo, pero se usa por lo general como sinónimo de informática (del francés informatique). De esta manera, puede decirse que la computación nuclea a los saberes científicos y a los métodos.
Estos sistemas automatizados de información se consiguen a través de herramientas determinadas que han sido creadas para dicho fin, los ordenadores o computadoras.

El origen de la computación, dicen los expertos, se remonta a más de trescientos años atrás, cuando comenzaron a elaborarse maquinarias enfocadas en diversas tareas de cálculo. En 1623, Wilhelm Schickard inventó la primera calculadora mecánica.

Sin embargo, las computadoras capaces de realizar múltiples procesos (o sea, que no se limitaban a los cálculos de tipo matemático) comenzaron a surgir en la década del ’40. El uso masivo y doméstico de estas máquinas llegaría recién en los ’80, con la producción de las computadoras personales o PC. El fin del siglo XX, con el auge de Internet, representó un nuevo impulso para todo lo relacionado con las ciencias de la computación.

En cuanto a la teoría de la computación, hay que decir que está considerada como una ciencia centrada en el estudio y la definición formal de los cómputos. Esta disciplina define al cómputo como el producto de una solución o de un resultado, en especial en el sentido matemático/aritmético del concepto, utilizando un proceso o algoritmo.

Dicho de otra forma, la computación es la ciencia que estudia y sistematiza las órdenes y actividades dictadas en una máquina, analizando a los factores que participan de este proceso, entre los que se encuentran los lenguajes de programación, que permiten generar una lista de datos ordenada y entendible para la máquina.
En el proceso se realizan dos tipos de análisis, uno orgánico (traducción de las indicaciones a un lenguaje comprensible por la computadora) y uno funcional (recoger la información disponible en el proceso de automatizar).


Para hablar de computación es necesario definir previamente el concepto de algoritmo. Un algoritmo es un conjunto de pasos determinados que se estructuran en el tiempo que responden a una lista de reglas claras y que tienen como objetivo solucionar un problema particular. Deben cumplir con ciertas condiciones: ser definidos (claros, detallar cada uno de los pasos necesarios a realizar sin ambigüedades), finitos (las acciones que lo conforman deben concluirse de forma lógica y clara), contar con cero o más entradas y con una o más salidas, y ser efectivo (utilizar exactamente lo que se requiera para la resolución del problema, gastando el mínimo de recursos y pudiendo ejecutarse eficazmente).

Otras áreas que también abarca la computación son la inteligencia artificial vinculada con los ordenadores, la computación gráfica y de redes, los sistemas de bases de datos, la matemática de los ordenadores y diferentes tipos de ingenierías relacionadas con esta máquina.

En la actualidad, el desarrollo de la computación y de las tecnologías relacionadas ha permitido la elaboración de diversos tipos de documentos, el envío y la recepción de correo electrónico, la creación de dibujos digitales, la edición de audio y la impresión de libros, entre muchos otros procesos.


Cabe señalar que la tecnología utilizada en computación es de tipo microelectrónica con componentes físicos (procesador, memoria, etc) y lógicos (sistema operativo y programas).




la telematica


LA TELEMATICA


La telemática es la disciplina científica y tecnológica que analiza e implementa servicios y aplicaciones que usan tanto los sistemas informáticos como las telecomunicaciones, como resultado de la unión de ambas disciplinas



La telemática cubre un campo científico y tecnológico de una considerable amplitud, englobando el estudio, diseño, gestión y aplicación de las redes y servicios de comunicaciones, para el transporte, almacenamiento y procesado de cualquier tipo de información (datos, voz, vídeo, etc.), incluyendo el análisis y diseño de tecnologías y sistemas de conmutación. La telemática abarca entre otros conceptos los siguientes planos funcionales:

El plano de usuario, donde se distribuye y procesa la información de los servicios y aplicaciones finales;
El plano de señalización y control, donde se distribuye y procesa la información de control del propio sistema, y su interacción con los usuarios;
El plano de gestión, donde se distribuye y procesa la información de operación y gestión del sistema y los servicios, y su interacción con los operadores de la red.
Cada uno de los planos se estructura en subsistemas denominados entidades de protocolo, que a su vez se ubican por su funcionalidad en varios niveles. Estos niveles son agrupaciones de funcionalidad, y según el modelo de interconexión de sistemas abiertos (modelo OSI) de la Organización Internacional de Normalización (ISO) se componen de: nivel físico, nivel de enlace, nivel de red, nivel de transporte extremo a extremo, nivel de sesión, nivel de presentación y nivel de aplicación.

Trata también servicios como la tele-educación, el comercio electrónico (e-commerce) o la administración electrónica (e-government), servicios Web, TV digital, la conmutación y la arquitectura de conmutadores, y también toca temas como el análisis de prestaciones, modelado y simulación de redes: optimización, planificación de la capacidad, ingeniería de tráfico y diseño de redes.


Otra modalidad es encontrarla focalizada en una actividad específica como telemática educativa en donde se desarrolla el uso de los recursos telemáticos dirigidos a la Educación; entre ellos la comunicación interactiva, la distribución de la información y el uso pedagógico de los servicios.


ofimatica

LA OFIMATICA
Ofimática, (acrónimo de ofi de oficina y mática de informática) a veces también llamado burótica o automatización de escritorios o automatización de oficinas,1 designa al conjunto de técnicas, aplicaciones y herramientas informáticas que se utilizan en funciones de oficina para optimizar, automatizar, y mejorar tareas y procedimientos relacionados. Las herramientas ofimáticas permiten idear, crear, manipular, transmitir o almacenar la información necesaria en una oficina. Actualmente es fundamental que las oficinas estén conectadas a una red local o a Internet.
Cualquier actividad que pueda hacerse manualmente en una oficina puede ser automatizada o ayudada por herramientas ofimáticas: dictado, mecanografía, archivado, fax, microfilmado, gestión de archivos y documentos, etc.
La ofimática comenzó a desarrollarse en la década del 70, con la masificación de los equipos de oficina que comienzan a incluir microprocesadores, dejándose de usar métodos y herramientas por otras más modernas.
Herramientas de la ofimatica:
1. Procesamiento de textos.
2. Hoja de cálculo
3. Herramientas de presentación.
4. Base de datos.
5. Utilidades: agendas, calculadoras, etc.
6. Programas de correo electrónico, correo de voz, mensajeros.
7. Herramientas de reconocimiento y síntesis del habla.
8. Suite ofimática: paquete de múltiples herramientas ofimáticas.




la robotica

LA ROBOTICA

La robótica es la rama de la ingeniería mecatrónica, de la ingeniería eléctrica, de la ingeniería electrónica y de las ciencias de la computación que se ocupa del diseñoconstrucción, operación, disposición estructural, manufactura y aplicación de los robots.
La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física. Otras áreas importantes en robótica son el álgebra, los autómatas programables, la animatrónica y las máquinas de estados.


HISTORIA

El término robot se popularizó con el éxito de la obra R.U.R. (Robots Universales Rossum), escrita por Karel Čapek en 1920. En la traducción al inglés de dicha obra, la palabra checa robota, que significa trabajos forzados o trabajador, fue traducida al inglés como robot

La historia de la robótica va unida a la construcción de "artefactos" que trataban de materializar el deseo humano de crear seres a su semejanza y que al mismo tiempo lo descargasen de trabajos tediosos. El ingeniero español Leonardo Torres Quevedo (que construyó el primer mando a distancia para su automóvil mediante telegrafía sin hilo,[cita requerida] el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas, tradicionalmente asociadas.

Karel Čapek, un escritor checo, acuñó en 1923 el término "Robot" en su obra dramática Rossum's Universal Robots / R.U.R., a partir de la palabra checa robota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder o, simplemente aliviando de las labores caseras.

CLASIFICACION DE LOS ROBOT


según su cronología:

La que a continuación se presenta es la clasificación más común:

1.ª Generación.
Robots manipuladores. Son sistemas mecánicos multifuncionales con un sencillo sistema de control, bien manual, de secuencia fija o de secuencia variable.

2.ª Generación.
Robots de aprendizaje. Repiten una secuencia de movimientos que ha sido ejecutada previamente por un operador humano. El modo de hacerlo es a través de un dispositivo mecánico. El operador realiza los movimientos requeridos mientras el robot le sigue y los memoriza.

3.ª Generación.
Robots con control sensorizado. El controlador es una computadora que ejecuta las órdenes de un programa y las envía al manipulador para que realice los movimientos necesarios.

4.ª Generación.
Robots inteligentes. Son similares a los anteriores, pero además poseen sensores que envían información a la computadora de control sobre el estado del proceso. Esto permite una toma inteligente de decisiones y el control del proceso en tiempo real.

según su estructura:

La estructura, es definida por el tipo de configuración general del Robot, puede ser metamórfica. El concepto de metamorfismo, de reciente aparición, se ha introducido para incrementar la flexibilidad funcional de un Robot a través del cambio de su configuración por el propio Robot. El metamorfismo admite diversos niveles, desde los más elementales (cambio de herramienta o de efecto terminal), hasta los más complejos como el cambio o alteración de algunos de sus elementos o subsistemas estructurales. Los dispositivos y mecanismos que pueden agruparse bajo la denominación genérica del Robot, tal como se ha indicado, son muy diversos y es por tanto difícil establecer una clasificación coherente de los mismos que resista un análisis crítico y riguroso. La subdivisión de los Robots, con base en su arquitectura, se hace en los siguientes grupos: poliarticulados, móviles, androides, zoomórficos e híbridos.

1. Poliarticulados
En este grupo se encuentran los Robots de muy diversa forma y configuración, cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas, y con un número limitado de grados de libertad. En este grupo, se encuentran los manipuladores, los Robots industriales, los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo.

2. Móviles
Son Robots con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo, o a través de bandas detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia.

3. Androides
Son los tipos de Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemático del ser humano. Actualmente, los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación. Uno de los aspectos más complejos de estos Robots, y sobre el que se centra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot.

4. Zoomórficos
Los Robots zoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los experimentos efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los Robots zoomórficos caminadores multípedos son muy numerosos y están siendo objeto de experimentos en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos, pilotados o autónomos, capaces de evolucionar en superficies muy accidentadas. Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes.

5. Híbridos
Estos Robots corresponden a aquellos de difícil clasificación, cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo tiempo, uno de los atributos de los Robots móviles y de los Robots zoomórficos.


cibernetica


LA CIBERNETICA

La cibernética es el estudio interdisciplinario de la estructura de los sistemas reguladores. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. Tanto en sus orígenes como en su evolución, en la segunda mitad del siglo XX, la cibernética es igualmente aplicable a los sistemas físicos y sociales. Los sistemas complejos afectan su ambiente externo y luego se adaptan a él. En términos técnicos, se centra en funciones de control y comunicación: ambos fenómenos externos e internos del/al sistema. Esta capacidad es natural en los organismos vivos y se ha imitado en máquinas y organizaciones. Especial atención se presta a la retroalimentación y sus conceptos derivados.

HISTORIA


La cibernética es una ciencia nacida hacia 1942 e impulsada inicialmente por Norbert Wiener y Arturo Rosenblueth Stearns que tiene como objeto “el control y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general”.[cita requerida] En 1950, Ben Laposky, un matemático de Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y, luego, computer art e infoarte. También, durante la década del cincuenta, William Ross Ashby propone teorías relacionadas con la inteligencia artificial.

La cibernética dio gran impulso a la teoría de la información a mediados de los 60; el computador digital sustituyó al analógico en la elaboración de imágenes electrónicas. En esos años aparece la segunda generación de computadores (con transistores en 1960) concretándose por entonces los primeros dibujos y gráficos de computador, y la tercera (con circuitos integrados, en 1964) así como los lenguajes de programación. En 1965 tuvo lugar en Stuttgart la exposición ”Computer-graphik”. Pero la muestra que consagró la tendencia fue la que tuvo lugar en 1968 bajo el título “Cybernetic Serendipity” en el Instituto de Arte Contemporáneo de Londres. También en ese año se destacó la exposición “Mindextenders” del Museum of Contemporary Crafts de Londres. En 1969 el Museo Brooklin organizó la muestra “Some more Beginnings”. En ese mismo año, en Buenos Airesy otras ciudades de Argentina, se presentaba Arte y cibernética, organizada por Jorge Glusberg. Con esta muestra se inaugurarían los principios de la relación arte/imagen digital en ese país. En España la primera manifestación fue la de “Formas computables”- 1969- “Generación automática de formas plásticas” -1970-ambas organizadas por el Centro de Cálculo de la Universidad de Madrid. En los primeros meses de 1972, el Instituto Alemán de Madrid y de Barcelona presentaron una de las muestras más completas que ha tenido lugar en España, titulada<Impulso arte computador>


LA RAIZ DE LA TEORIA CIBERNETICA
El término cibernética viene del griego Κυβερνήτης (kybernḗtēs, que se refiere al timonel, el cual "gobierna" la embarcación). La palabra cybernétique también fue utilizada en 1834 por el físico André-Marie Ampère (1775-1836) para referirse a las ciencias de gobierno en su sistema de clasificación de los conocimientos humanos.
Históricamente los primeros mecanismos en utilizar regulación automática (aunque no se usaba la palabra cibernética entonces para ellos) fueron los desarrollados para medir el tiempo, como los relojes de agua. En ellos, el agua fluía de una fuente, como un tanque en un depósito y luego desde el depósito a los mecanismos del reloj. Ctesibio usó un dispositivo flotador en forma de cono para controlar el nivel del agua en su embalse y ajustar la velocidad del flujo del agua en consecuencia para mantener un nivel constante de agua en el embalse, de modo que no desbordó ni se le permitió funcionar en seco. Esta fue la primera prótesis verdaderamente automática de un dispositivo normativo que no requiere la intervención externa entre la retroalimentación y el control del mecanismo. Aunque no se referían a este concepto con el nombre de Cibernética (lo consideraban como un campo de la ingeniería), Ktesibios y otros como Heron y Su Song se consideran algunos de los primeros en estudiar los principios cibernéticos.
El estudio de la cibernética en su sentido actual comienza con los mecanismos de teleológica (del griego τέλος o telos para el final, meta o propósito) en máquinas con fechas de retroalimentación correctiva de finales de 1700 cuando aparece el motor de vapor de James Watt. Este motor estaba equipado con un gobernador, una válvula de votos centrífugas para el control de la velocidad del motor. Alfred Russel Wallace lo identificó como el principio de la evolución en su famoso artículo de 1858. En 1868, James Clerk Maxwell publicó un artículo teórico sobre los gobernadores, uno de los primeros para discutir y perfeccionar los principios de la auto-regulación de los dispositivos.

Jakob von Uexküll aplica el mecanismo de retroalimentación a través de su modelo de ciclo de funcionamiento (Funktionskreis) con el fin de explicar el comportamiento de los animales y los orígenes del sentido en general, y utiliza por primera vez la palabra "cibernética" refiriéndose a los sistemas autorregulados. En su libro Cybernetic, que lo dedica a su compañero de ciencia el Maestro Ilustre Don Arturo Rosenblueth, fisiólogo con enfoque al sistema nervioso central, reta a Wiener a utilizar sus modelos matemáticos para reproducir el sistema automático de las redes neuronales que gobiernan el automatismo respiratorio. De hecho, el espacio virtual que existe en las terminaciones dendríticas le hizo imaginar la navegación en un espacio virtual, de ahí que la cibernáutica o los cibernautas traducen lo que él quería decir: navegar en algo que existe pero que nadie ve.



virus


VIRUS INFORMATICO
Un virus es un malware que tiene por objetivo alterar el funcionamiento normal del ordenador, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en una computadora, aunque también existen otros más inofensivos, que solo producen molestias.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, incluso cuando el programa que lo contenía haya terminado de ejecutar. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.
El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal). Fue llamado Creeper, (ENMS) creado en 1972. Este programa emitía periódicamente en la pantalla el mensaje: «I'm a creeper... catch me if you can!» («¡Soy una enredadera... agárrame si puedes!»). Para eliminar este problema se creó el primer programa antivirusdenominado Reaper (cortadora).
Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Victor VyssotskyRobert Morris Sr. y Doug McIlroy, investigadores de Bell Labs(se cita erróneamente a Dennis Ritchie o Ken Thompson como cuarto coautor) desarrollaron un juego de ordenador llamado Darwin (del que derivará Core Wars) que consiste en eliminar al programa adversario ocupando toda la RAM de la zona de juego (arena).1
Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de disquetes hasta los que se adjuntan en un correo electrónico.