viernes, 19 de octubre de 2012

Presentación




Universidad Nacional Autónoma de México


Colegio de Ciencias y Humanidades

Plantel Sur 

Cibernética y Computación I

"Historia de la Cibernética y Computación /Origen del lenguaje de Pascal"

Flores Arredondo Mariana 

Grupo: 568

Indice

1.Origen del lenguaje de Pascal 
2.Historia de la Cibernética 
         2.1. Biónica y Robótica 
3.Historia de la Computación 
    3.1.Primera Generación (1951-1958)
    3.2.Segunda Generación (1958-1964)
    3.3.Tercera Generación (1964-1971)
    3.4.Cuarta Generación (1972-1984)
    3.5.Quinta Generación (1983 al presente)

Origen del lenguaje de Pascal


El PASCAL es un lenguaje de programación de alto nivel y de propósito general que ha derivado del ALGOL-60 y fue diseñado para enseñar técnicas de programación estructurada. Es de alto nivel porque su repertorio de instrucciones lo hacen próximo a los lenguajes humanos y a los procesos humanos de pensamiento. Sus instrucciones o sentencias se componen de expresiones de apariencia algebraica  y de ciertas palabras inglesas como BEGIN, END, READ, WRITE, IF, THEN, REPEAT, WHILE, DO.

Es de propósito general como el  BASIC,  el COBOL,  el FORTRAN,  el PL/I; porque no está enfocado a un tipo especifico de aplicaciones.

Pero este, a diferencia de otros lenguajes, contiene algunos rasgos singulares que han sido diseñados para estimular el uso de la "programación estructurada", un enfoque ordenado y disciplinado de la programación que  conduce  a la obtención de programas claros, eficientes y libres de errores. Por ello, el Pascal se utiliza ampliamente en la enseñanza de la informática.

El lenguaje de programación Pascal apareció por primera vez en 1971, de la mano de Niklaus Wirth.

Wirh inventó el lenguaje como una forma de mejorar el por aquel entonces arcaico Algol. No es el primer lenguaje que Wirth diseña, posteriormente inventó el Modula-2 y el Oberon. Sin embargo, paradójicamente, esos dos lenguajes han sido ampliamente superados por el Extended Pascal y el Object Pascal. De todos esos lenguajes, Pascal es el que más éxito ha tenido.
Aunque nace a principios de los 70, Pascal cobra auténtica vida a partir de principios/mediados de los 80, popularizado por el fabuloso Turbo Pascal de MS-DOS para PC, y sobre todo el Apple Pascal. Pascal ha sido tan popular hasta mediados de los 90, que una gran parte (la mayor parte) de las aplicaciones desarrolladas para Mac estaban realizadas en Pascal, así como una enorme parte también de los programas de MS-DOS.

Fue Borland la que, hasta el Turbo Pascal 7, se encargó de la mayor parte de la evolución de este lenguaje. A mediados de los 90, con el boom de Windows y el renacimiento de los sistemas Unix (entre ellos Linux) como ordenadores servidores primero y luego como estaciones de trabajo, motivó que Pascal pasara a un segundo plano en beneficio de C.
En ese momento, prácticamente solo Delphi (Object Pascal para Windows) consiguió mantenerse en la brecha, pero conformándose con una pequeña parte del mercado solamente.

Casi todo el mundo intentó pasarse a C++. Fíjate que decimos intentó. C++ no consiguió calar del todo por su extrema complejidad. Su sistema de objetos, los macros, los crípticos nombres de funciones, los namespaces tan difíciles de manejar, los templates, la STL y otra serie de cosas, hicieron que rápidamente mucha gente pasara de querer usaresa herramienta que todo el mundo proclamaba que era tan potente, a buscar alternativas que fueran más simples y prácticas. Sun, la compañía del Java, se gasto una millonada en promocionar su lenguaje, y tuvo un gran éxito, sin duda debido no solo al dinero en publicidad, sino a la gente que escapaba escaldada del C++. En realidad, Java no es un lenguaje fácil de aprender (obliga a pensar en objetos desde el principio, algo que los novatos no llevan bien), pero comparado con C++, se podía considerar como algo sencillo.

Borland, una compañía con no tanto dinero como Sun, no pudo competir con Pascal, y se tuvo que conformar sacando su propia máquina virtual de Java. Pero Delphi no ha dejado nunca de existir. Aun hoy sigue sacando versiones Delphi, con gran éxito, aunque no consigue subir significativamente su porcentaje de participación en el mercado.

El paso de Turbo Pascal a Delphi también trajo como consecuencias que apareciera Kylix, que no es más que un Delphi multiplataforma. No caló lo suficiente, debido a la licencia cerrada, y a que imponía que el programa compilado fuera GPL.

Posteriormente Microsoft compró la mayor parte de Borland. Con ello se abandonó Kylix, Linux, y se hizo a Borland 100% Windows. Esta estrategia prácticamente ha arruinado el avance de Pascal frente a otros lenguajes, en el entorno corporativo.

En el momento en que Borland pasó de Turbo Pascal a Delphi, apareció Free Pascal. Free Pascal es un intento de la comunidad de código libre de hacer un compilador compatible con Turbo Pascal para todas las plataformas más famosas (incluido Linux, OS X y Windows). Desde la versión 2.0, Free Pascal es además compatible con Delphi.

Free Pascal es, hoy en día, el sistema preferido para programar en Pascal multiplataforma. Su IDE principal, el Lazarus, un clon del Delphi, corre tanto en Windows como en OS X como en Linux.

Para la realización de este tutorial, recomendamos usar Lazarus. Es perfectamente posible usar Delphi, pues es totalmente compatible en lo básico y también en la mayoría de las cosas avanzadas.

Lazarus y Free Pascal son la gran esperanza del lenguaje de programación Pascal, y de los entornos de desarrollo multiplataforma en general. Su desarrollo es muy activo, y con toda seguridad tiene un futuro prometedor.






Historia de la Cibernética

La cibernética es el estudio de como los sistemas complejos afectan y luego se adaptan a su ambiente externo; en términos técnicos, se centra en funciones de control y comunicación: ambos fenómenos externos e internos del sistema. Esta capacidad es natural en los organismos vivos y se ha imitado en máquinas y organizaciones. Especial atención se presta a la retroalimentacióny sus conceptos derivados.



La cibernética es una ciencia, nacida hacia 1948 e impulsada inicialmente por Norbert Wiener que tiene como objeto “el control y comunicación en el animal yen la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general” En 1950, Ben Laposky, un matemático de Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y, luego, computer art e infoarte. La cibernética dio gran impulso a la teoría de la información a mediados de los 60,la computadora digital sustituyo la analógica en la elaboración de imágenes electrónicas. En esos años aparecen la segunda generación de computadoras(con transistores en 1960) concretándose por entonces los 1° dibujos y gráficos de computadora, y la tercera (con circuitos integrados, en 1964) así como los lenguajes de programación. En 1965 tuvo lugar en Stuttgart la exposición”Computer-grafik” . Pero la muestra que consagró la tendencia fue la que tuvo lugar en 1968 bajo el titulo “Cibernetic Serendipity” en el Instituto de Arte Contemporáneo de Londres. También en ese año se destacó la exposición“Mindextenders” del Museum of Contemporary Crafs de Londres. En 1969 el Museo Brooklin organizó la muestra “Some more Beginnings”. En ese mismo año, en Buenos Aires y otras ciudades de Argentina, se presentaba Arte y cibernética, organizada por Jorge Glusberg con esta muestra se inauguraría los principios de la relación arte/ imagen digital en ese país. En España la primera manifestación fue la de “Formas computables”- 1969- “Generación automática de formas plásticas” -1970-ambas organizadas por el Centro de Cálculo de la Universidad de Madrid. En los primeros meses de 1972, el Instituto Alemán de Madrid y de Barcelona han presentado una de las muestras más completas,titulada<Impulso arte computador>Las primeras experiencias de lo que luego se llamaría net.art. se remontan al año 1994, se puede establecer, que las primeras experiencias donde la tecnología informática puesta al servicio de la comunidad .



Fuente: http://es.scribd.com/doc/15402784/CIBERNETICA01

Biónica y Robótica


Biónica

La biónica es la aplicación de soluciones biológicas a la técnica de los sistemas de arquitectura, ingeniería y tecnología moderna. Etimológicamente, la palabra viene del griego "bios"; que significa vida y el sufijo "´-ico" que significa "relativo a".
La biónica es aquella rama de la cibernética que trata de simular el comportamiento de los seres vivos haciéndolos mejores en casi todas las ramas por medio de instrumentos mecánicos.





Robótica 


Este término procede de la palabra robot. La robótica es, por lo tanto, la ciencia o rama de la ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots.

Los robots son dispositivos compuestos de sensores que reciben datos de entrada y que pueden estar conectados a la computadora. Esta, al recibir la información de entrada, ordena al robot que efectúe una determinada acción. Puede ser que los propios robots dispongan de microprocesadores que reciben el input de los sensores y que estos microprocesadores ordenen al robot la ejecución de las acciones para las cuales está concebido. En este último caso, el propio robot es a su vez una computadora.




LAS TRES LEYES DE LA ROBOTICA

Ley CERO: En 1985, Asimov publicó un relato en la que uno de sus robot se ve obligado a herir a un ser humano por el bien del resto de la humanidad. Surge así una nueva ley, considerada la Ley Definitiva, la llamada Ley Cero, superior a todas las demás: "Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la humanidad sufra daños". Quedando así modificada la primera ley: "Un robot no debe dañar a un ser humano, o permitir, por inacción, que un ser humano sufra daño, a menos que tal acción viole la Ley Cero".

1. Un robot no puede causar daño a un ser humano ni, por omisión, permitir que un ser humano sufra daños.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, salvo cuando tales órdenes entren en conflicto con la Primera Ley.

3. Un robot ha de proteger su existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.











Robótica


Este término procede de la palabra robot. La robótica es, por lo tanto, la ciencia o rama de la ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots.

Los robots son dispositivos compuestos de sensores que reciben datos de entrada y que pueden estar conectados a la computadora. Esta, al recibir la información de entrada, ordena al robot que efectúe una determinada acción. Puede ser que los propios robots dispongan de microprocesadores que reciben el input de los sensores y que estos microprocesadores ordenen al robot la ejecución de las acciones para las cuales está concebido. En este último caso, el propio robot es a su vez una computadora.




LAS TRES LEYES DE LA ROBOTICA

Ley CERO: En 1985, Asimov publicó un relato en la que uno de sus robot se ve obligado a herir a un ser humano por el bien del resto de la humanidad. Surge así una nueva ley, considerada la Ley Definitiva, la llamada Ley Cero, superior a todas las demás: "Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la humanidad sufra daños". Quedando así modificada la primera ley: "Un robot no debe dañar a un ser humano, o permitir, por inacción, que un ser humano sufra daño, a menos que tal acción viole la Ley Cero".

1. Un robot no puede causar daño a un ser humano ni, por omisión, permitir que un ser humano sufra daños.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, salvo cuando tales órdenes entren en conflicto con la Primera Ley.

3. Un robot ha de proteger su existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Historia de la Computación



El término computación tiene su origen en el vocablo en latín computatio. Esta palabra permite abordar la noción de cómputo como cuenta o cálculo, pero se usa por lo general como sinónimo de informática (del francésinformatique). De esta manera, puede decirse que la computación nuclea a los saberes científicos y a los métodos.



La Computación es la disciplina que busca establecer una base científica para resolver problemas mediante el uso de dispositivos electrónicos y sistemas computacionales.

Primera Generación (1951-1958)



En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

  • Usaban tubos al vacío para procesar información.
  • Usaban tarjetas perforadas para entrar los datos y los programas.
  • Usaban cilindros magnéticos para almacenar información e instrucciones internas.
  • Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.
  • Se comenzó a utilizar el sistema binario para representar los datos.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

Segunda Generación (1958-1964)



En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.

Características de está generación:

  • Usaban transistores para procesar información.
  • Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
  • 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
  • Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad de calor y eran sumamente lentas.
  • Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
  • Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accsesibles.
  • Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general.
  • La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
  • Surgieron las minicomputadoras y los terminales a distancia.
  • Se comenzó a disminuir el tamaño de las computadoras.

Tercera Generación (1964-1971)


La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.

Características de está generación:
  • Se desarrollaron circuitos integrados para procesar información.
  • Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
  • Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas.
  • Surge la multiprogramación.
  • Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos.
  • Emerge la industria del "software".
  • Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
  • Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
  • Consumían menos electricidad, por lo tanto, generaban menos calor.

Cuarta Generación (1972-1984)



Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".

Características de está generación:
  • Se desarrolló el microprocesador.
  • Se colocan más circuitos dentro de un "chip".
  • "LSI - Large Scale Integration circuit".
  • "VLSI - Very Large Scale Integration circuit".
  • Cada "chip" puede hacer diferentes tareas.
  • Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips".
  • Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
  • Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
  • Se desarrollan las supercomputadoras.

Quinta Generación (1983 al presente)



En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

  • Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
  • Se desarrollan las supercomputadoras.

Inteligencia artíficial:

La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora.

Robótica:

La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a situaciones no estructuradas.

Sistemas expertos:

Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas.

Redes de comunicaciones:

Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el "software" que administra la transmisión.



Conclusión

Las nuevas tecnologías han avanzado mas rápido en los últimos 20 años. El cambio es constante, un ejemplo es; cuando un celular sale al mercado inmediatamente ya se esta hablando del siguiente modelo. 

También la tecnología nos ofrece avances en la medicina, ya que con maquinas muy sofisticadas pueden ver o detectar lo que el ojo humano no alcanza a percibir. 

El uso de maquinas es cada vez mas común, esto puede ser una ventaja para las empresas, pues ésta trabaja mas que un ser humano, y sin goce de sueldo. Entonces el uso excesivo de las maquinas podría generar desempleo. 

A todo esto, todos tenemos que irnos capacitando constantemente para lograr un equilibrio entre la tecnología y el ser humano.

Cibergrafía