INTRODUCCIÓN A LA PROGRAMACIÓN 2

CONCEPTOS RELACIONADOS CON PROGRAMACIÓN

  • Software: Compone la parte lógica de un sistema de computación, permitiéndose el funcionamiento.:El software puede definirse como todos aquellos conceptos, actividades y procedimientos que dan como resultado la generación de programas para un sistema de computación. En otras palabras, son las instrucciones que han sido predefinidas por un programador para ejecutar las tareas que se le indican. El software es un conjunto de números binarios (bits), que tiene algún sentido para la computadora, y es almacenado en algún soporte físico (hardware), desde donde el procesador puede acceder, para ejecutarlo o mostrarlo. Mientras que el hardware es un sistema de computación visible, tangible y fácilmente aplicable, el software es una entidad puramente conceptual: un producto intelectual, esto significa que el hardware es la parte física, y el software es la parte lógica de la computadora. El objetivo de un “buen software” es aumentar las posibilidades de que éste se desarrolle a tiempo y de que tenga una mayor efectividad en cuanto a costos debido a una utilización más eficiente del personal y los recursos. El software puede dividirse en distintas formas basadas en el tipo de trabajo realizado. El software de sistema, donde una de sus partes importantes es el sistema operativo, es la parte que permite funcionar al hardware, controla los trabajos, procesa tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de los archivos del disco y la administración de la pantalla. El software de aplicación, permite a los usuarios llevar a cabo una o varias tareas más específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares. Por ejemplo, hacer un índice ordenado por autor o recuperar información de una base de datos, etc. Por último, se tiene el software de programación, el cual proporciona herramientas para ayudar al programador a escribir programas informáticos y a usar diferentes lenguajes de programación de forma práctica.
  • Dato: En informática, los datos son representaciones simbólicas (vale decir: numéricas, alfabéticas, algorítmicas, etc.) de un determinado atributo o variable cualitativa o cuantitativa, o sea: la descripción codificada de un hecho empírico, un suceso, una entidad.En informática, los datos son representaciones simbólicas (vale decir: numéricas, alfabéticas, algorítmicas, etc.) de un determinado atributo o variable cualitativa o cuantitativa, o sea: la descripción codificada de un hecho empírico, un suceso, una entidad. Los datos son, así, la información (valores o referentes) que recibe el computador a través de distintos medios, y que es manipulada mediante el procesamiento de los algoritmos de programación. Su contenido puede ser prácticamente cualquiera: estadísticas, números, descriptores, que por separado no tienen relevancia para los usuarios del sistema, pero que en conjunto pueden ser interpretados para obtener una información completa y específica. En los lenguajes de programación, empleados para crear y organizar los algoritmos que todo sistema informático o computacional persigue, los datos son la expresión de las características puntuales de las entidades sobre las cuales operan dichos algoritmos. Es decir, son el input inicial, a partir del cual puede procesarse y componerse la información. Son particularmente importantes para la estructura de datos, rama de la computación que estudia la forma particular de almacenaje de la información en porciones mínimas para lograr una posterior recuperación eficiente. Tipos de datos En la informática, cuando hablamos de tipos de datos (o simplemente “tipo”) nos referimos a un atributo que se indica al computador respecto a la naturaleza de los datos que se dispone a procesar. Esto incluye delimitar o restringir los datos, definir los valores que pueden tomar, qué operaciones se puede realizar con ellos, etc. Algunos tipos de datos son: Caracteres. Dígitos individuales que se pueden representar mediante datos numéricos (0-9), letras (a-z) u otros símbolos. Caracteres unicode. Unicode es un estándar de codificación que permite representar más eficazmente los datos, permitiendo así hasta 65535 caracteres diferentes. Numéricos. Pueden ser números reales o enteros, dependiendo de lo necesario. Booleanos. Representan valores lógicos (verdadero o falso).
    Los datos son, así, la información (valores o referentes) que recibe el computador a través de distintos medios, y que es manipulada mediante el procesamiento de los algoritmos de programación
  • Algoritmo: Es una secuencia de instrucciones secuenciales, gracias al cual pueden llevarse a cabo ciertos procesos y darse respuesta a determinadas necesidades o decisiones. Se trata de conjuntos ordenados y finitos de pasos, que nos permiten resolver un problema o tomar una decisión.En informática, un algoritmo es una secuencia de instrucciones secuenciales, gracias al cual pueden llevarse a cabo ciertos procesos y darse respuesta a determinadas necesidades o decisiones. Se trata de conjuntos ordenados y finitos de pasos, que nos permiten resolver un problema o tomar una decisión. Los algoritmos no tienen que ver con los lenguajes de programación, dado que un mismo algoritmo o diagrama de flujo puede representarse en diversos lenguajes de programación, es decir, se trata de un ordenamiento previo a la programación. Visto así, un programa no es otra cosa que una serie compleja de algoritmos ordenados y codificados mediante un lenguaje de programación para su posterior ejecución en un computador. Los algoritmos también son frecuentes en la matemática y la lógica, y son la base de la fabricación de manuales de usuario, folletos de instrucciones, etc. Su nombre proviene del latín algoritmus y éste apellido del matemático persa Al-Juarismi. Uno de los algoritmos más conocidos de la matemática es el atribuido a Euclides, para obtener el máximo común divisor de dos enteros positivos, o el llamado “método de Gauss” para resolver sistemas de ecuaciones lineales. Tipos de algoritmos Existen cuatro tipos de algoritmos en informática: Algoritmos computacionales. Un algoritmo cuya resolución depende del cálculo, y que puede ser desarrollado por una calculadora o computadora sin dificultades. Algoritmos no computacionales. Aquellos que no requieren de los procesos de un computador para resolverse, o cuyos pasos son exclusivos para la resolución por parte de un ser humano. Algoritmos cualitativos. Se trata de un algoritmo en cuya resolución no intervienen cálculos numéricos, sino secuencias lógicas y/o formales. Algoritmos cuantitativos. Todo lo contrario, es un algoritmo que depende de cálculos matemáticos para dar con su resolución
  • CPU: Es una abreviación de Unidad Central de Procesamiento. El CPU es un componente básico de la computadora personal u ordenador que procesa datos y realiza cálculos matemáticos-informáticos.CPU son las siglas en inglés de Central Processing Unit (Unidad de Proceso Central), El CPU es el cerebro del ordenador, referimos a la parte de la computadora en la que se controlan y originan comandos directos que generan las diferentes funciones de la CPU. En el CPU se hacen todos los cálculos del código binario de la computadora. En general, es la parte más importante del sistema. En el caso de una computadora de escritorio, sencilla, solo necesitan un tablero de circuitos impresos. En este tablero se encuentra el chip llamado microprocesador que representa el corazón de ese CPU que calcula y determina las funciones principales de la computadora (casi todas). El CPU presenta 2 componentes fundamentales: La unidad de lógica/aritmética (ALU) es la calculadora principal de la computadora, ella vincula las operaciones que están relacionadas directamente con el código binario que se maneja en la PC y la unidad de control (CU) es la gran administradora de la memoria y los componentes que agregan las funciones, las descifra y las ejecuta.
  • Sistema Operativo: Es el software, es decir un programa informático, definido como el más importante de los utilizados por las computadoras. Este software coordina y dirige servicios y aplicaciones que utiliza el usuario. Permite que el resto de los programas funcionen ya que permite que se reconozcan ciertas conexiones, la seguridad de la computadora, realizar controles, envíos, etc.Un Sistema Operativo (SO) es el software básico de una computadora que provee una interfaz entre el resto de programas del computador, los dispositivos hardware y el usuario. Las funciones básicas del Sistema Operativo son administrar los recursos de la máquina, coordinar el hardware y organizar archivos y directorios en dispositivos de almacenamiento. Los Sistemas Operativos más utilizados son Dos, Windows, Linux y Mac. Algunos SO ya vienen con un navegador integrado, como Windows que trae el navegador Internet Explorer. sistema operativo es el programa (o software) más importante de un Computador. Para que funcionen los otros programas, cada computador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlar los dispositivos periféricos tales como impresoras, escáner, etc. En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema. Funciones del sistema operativo: Clasificación de los Sistemas Operativos Los sistemas operativos pueden ser clasificados de la siguiente forma: Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo. Multiprocesador: soporta el abrir un mismo programa en más de una . Multitarea: Permite que varios programas se ejecuten al mismo tiempo. Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo.
  • HTML: Son las siglas en inglés de HyperText Markup Lenguage, que significa Lenguaje de Marcado de HiperTexto. Se llama así al lenguaje de programación empleado en la elaboración de páginas Web, y que sirve como estándar de referencia para la codificación y estructuración de las mismas, a través de un código del mismo nombre (html).HTML es un lenguaje de marcado que se utiliza para el desarrollo de páginas de Internet. Se trata de la sigla que corresponde a HyperText Markup Language, es decir, Lenguaje de Marcas de Hipertexto, que podría ser traducido como Lenguaje de Formato de Documentos para Hipertexto. Se trata de un formato abierto que surgió a partir de las etiquetas SGML (Standard Generalized Markup Language). Concepto traducido generalmente como “Estándar de Lenguaje de Marcado Generalizado” y que se entiende como un sistema que permite ordenar y etiquetar diversos documentos dentro de una lista. Este lenguaje es el que se utiliza para especificar los nombres de las etiquetas que se utilizarán al ordenar, no existen reglas para dicha organización, por eso se dice que es un sistema de formato abierto. EL HTML se encarga de desarrollar una descripción sobre los contenidos que aparecen como textos y sobre su estructura, complementando dicho texto con diversos objetos (como fotografías, animaciones, etc). Es un lenguaje muy simple y general que sirve para definir otros lenguajes que tienen que ver con el formato de los documentos. El texto en él se crea a partir de etiquetas, también llamadas tags, que permiten interconectar diversos conceptos y formatos. Para la escritura de este lenguaje, se crean etiquetas que aparecen especificadas a través de corchetes o paréntesis angulares: < y >. Entre sus componentes, los elementos dan forma a la estructura esencial del lenguaje, ya que tienen dos propiedades (el contenido en sí mismo y sus atributos). Por otra parte, cabe destacar que el HTML permite ciertos códigos que se conocen como scripts, los cuales brindan instrucciones específicas a los navegadores que se encargan de procesar el lenguaje. Entre los scripts que pueden agregarse, los más conocidos y utilizados son JavaScript y PHP.
  • Computación: El concepto computación proviene del latín computatĭoesta hace referencia al cómputo, como cuentaLa computación es la ciencia encargada de estudiar los sistemas, más precisamente computadoras, que automáticamente gestionan información.Computación es sinónimo de informática. Como tal, se refiere a la tecnología desarrollada para el tratamiento automático de la información mediante el uso computadoras u ordenadores. En este sentido, la computación es también un área de conocimiento constituida por disciplinas relativas a las ciencias y la tecnología, para el estudio, desde el punto de vista teórico y práctico, de los fundamentos del procesamiento automático de datos, y su desarrollo, implementación y aplicación en sistemas informáticos. La palabra computación proviene del latín computatĭo, computatiōnis, que deriva del verbo computāre, cuyo significado es ‘enumerar cantidades’. Computación, en este sentido, designa la acción y efecto de computar, realizar una cuenta, un cálculo matemático. De allí que antiguamente computación fuese un término usado para referirse a los cálculos realizados por una persona con un instrumento expresamente utilizado para tal fin (como el ábaco, por ejemplo) o sin él.La teoría de la computación es un conjunto de conocimientos racionales, sistematizados y funcionales que se centran en el estudio de la abstracción de los procesos que ocurren en la realidad con el fin de reproducirlos con ayuda de sistemas formales, es decir, a través de códigos de caracteres e instrucciones lógicas, reconocibles por el ser humano, con capacidad de ser modeladas en las limitaciones de dispositivos que procesan información y que efectúan cálculos como, por ejemplo, el ordenador. Para ello, se apoya en la teoría de autómatas, a fin de simular y estandarizar dichos procesos, así como para formalizar los problemas y darles solución.
  • Conjunto: Se define como la agrupación de diferentes elementos que comparten entre sí características y propiedades semejantes. Estos elementos pueden ser cualquier cosa, tales como números, canciones, meses, personas, etcétera.La teoría de conjunto está construida sobre la base de conceptos, los cuales por ser intuitivos y comprensibles no es necesario definirlos formalmente sabemos que en realidad existen cosas, objetos entes, elementos que constituyen unidades completamente identificables que pueden ser tangibles o no. Sin embargo, la teoría de los conjuntos es lo suficientemente rica como para construir el resto de objetos y estructuras de interés en matemáticas: números, funciones, figuras geométricas y junto con la lógica permite estudiar los fundamentos de esta en relación con la informática. La teoría de conjunto se relaciona con la informática a la hora de programar Uno de los primeros lenguajes que soportaban conjuntos fue Pascal; muchos lenguajes lo incluyen ahora, ya sea en el núcleo del lenguaje o en una librería estándar. El Lenguaje de programación Java ofrece la interfaz Set para el soporte de conjuntos (donde lo implementa la clase HashSet usando una tabla hash), y la sub-interfaz SortedSet para dar soporte a conjuntos ordenados (implementado por la clase TreeSet por medio de un árbol de búsqueda binario). En C++, STL ofrece la clase "conjunto" para templates, que implementa a un conjunto ordenado usando un árbol de búsqueda binario; el STL de SGI ofrece la clase "hash_set", implementando conjuntos con una tabla de hash. Python tiene un tipo de conjunto incorporado, pero no un conjunto en sí
  • Informática: Suele ser definida como aquella ciencia que se dedica a estudiar el tratamiento de la información mediante medios automáticos, es decir, la ciencia de la información automática. Se trata de una sumatoria de conocimientos científicos y de técnicas que posibilitan el tratamiento automático de la información mediante el uso de computadoras.La palabra Informática procede del francés Informatique, formada por la contracción de los vocablos Información y automática. En los países anglosajones se conoce con el nombre Computer Science (Ciencia de las computadoras). La informática es la técnica vinculada al desarrollo de la computadora; es un conjunto de conocimientos, tantos teóricos como prácticos, sobre cómo se construye, como funciona y cómo se emplea ésta. De manera más sencilla se puede definir como la ciencia que estudia la información, y los medios de automatización y transmisión para poder tratarla y procesarla. Se podría decir que la materia prima de la informática es la información, mientras que su objetivo formal es el tratamiento de la misma. La informática surgió como el centro de atención sobre el cual giraron cada uno de los desarrollos tecnológicos del siglo pasado. Cada vez que ha aparecido un nuevo fenómeno en nuestra historia, el hombre ha desarrollado una nueva ciencia que trata de estudiarlo y describirlo. Surgieron las computadoras y con ellas se desarrolló la Informática. Las funciones esenciales que puede presentar la informática son el desarrollo y construcción de nuevas máquinas, el desarrollo e implantación de nuevos métodos de trabajo, así como la construcción y mejora de aplicaciones informáticas (programas). Sus aspectos envuelven desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica. La informática como toda ciencia combina los aspectos teóricos y prácticos de otras disciplinas como la ingeniería, electrónica, matemáticas, lógica, teoría de la información y comportamiento humano. En pocos años la informática se ha convertido en un integrante activo de nuestra sociedad, el hombre actual vive y se desarrolla en un medio donde los datos, información y la comunicación son parte fundamental de la vida diaria. Con la informática podemos realizar muchas cosas, tales como obtener dinero de un cajero automático, consultar enciclopedias, noticias, o cualquier información, comunicarse con personas que se encuentren en algún lugar del planeta, entre otras. Hoy en día, son muchos los campos que utilizan y aplican la informática, ésta se encuentra en la medicina, en la ingeniería, en las comunicaciones, en las industrias, en las empresas, en el mundo artístico, en el ámbito investigativo y científico, en los hogares, etc.
  • lenguaje:puede entendérselo como la capacidad humana (aunque también animal) de utilizar un sistema de signos, escritos u orales, para establecer algún tipo de comunicación con uno o varios individuos. Por esta razón, el lenguaje puede ser considerado como un hecho social, ya que se conforma en el seno de un grupo de personas y precisa de este para poder existir.Un lenguaje de programación es un lenguaje formal que especifica una serie de instrucciones para que una computadora produzca diversas clases de datos. Los lenguajes de programación pueden usarse para crear programas que pongan en práctica algoritmos específicos que controlen el comportamiento físico y lógico de una computadora. Está formado por un conjunto de símbolos y reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones. Al proceso por el cual se escribe, se prueba, se depura, se compila (de ser necesario) y se mantiene el código fuente de un programa informático se le llama programación. También la palabra programación se define como el proceso de creación de un programa de computadora, mediante la aplicación de procedimientos lógicos, a través de los siguientes pasos: El desarrollo lógico del programa para resolver un problema en particular. Escritura de la lógica del programa empleando un lenguaje de programación específico (codificación del programa). Ensamblaje o compilación del programa hasta convertirlo en lenguaje de máquina. Prueba y depuración del programa. Desarrollo de la documentación. Existe un error común que trata por sinónimos los términos 'lenguaje de programación' y 'lenguaje informático'. Los lenguajes informáticos engloban a los lenguajes de programación y a otros más, como por ejemplo HTML (lenguaje para el marcado de páginas web que no es propiamente un lenguaje de programación, sino un conjunto de instrucciones que permiten estructurar el contenido de los documentos). Permite especificar de manera precisa sobre qué datos debe operar una computadora, cómo deben ser almacenados o transmitidos y qué acciones debe tomar bajo una variada gama de circunstancias. Todo esto, a través de un lenguaje que intenta estar relativamente próximo al lenguaje humano o natural. Una característica relevante de los lenguajes de programación es precisamente que más de un programador pueda usar un conjunto común de instrucciones que sean comprendidas entre ellos para realizar la construcción de un programa de forma colaborativa.
  • Vulnerabilidad: Una vulnerabilidad es una cualidad que posee alguien o algo para poder ser herido. Cuando una persona o un objeto es vulnerable, significa que puede llegar a ser herido o recibir una lesión tanto física como emocional.Una vulnerabilidad es una debilidad del sistema informático que puede ser utilizada para causar un daño. Las debilidades pueden aparecer en cualquiera de los elementos de una computadora, tanto en el hardware, el sistema operativo, como en el software. Como ejemplo de vulnerabilidad podemos comentar el siguiente. En su casa hay una computadora conectada a Internet, dónde además tiene configurada una cuenta de correo electrónico a través de la que recibe mensajes diariamente. También tiene instalado un antivirus que es capaz de chequear los mensajes electrónicos, incluidos los archivos que están adjuntos. Pero el antivirus lo instalo cuándo compró el equipo hace más de un año y no lo ha vuelto a actualizar. En este caso su equipo es vulnerable a los virus más recientes que puedan llegar mediante su correo electrónico, ya que el antivirus no está actualizado y no sabe que éstos nuevos virus existen. Pero una cosa sí que es cierta, que exista una vulnerabilidad no significa que se produzca un daño en el equipo de forma automática. Es decir, la computadora tiene un punto flaco, pero no por eso va a fallar, lo único que ocurre es que es posible que alguien ataque el equipo aprovechando ese punto débil. Las vulnerabilidades de un sistema son una puerta abierta para posibles ataques, de ahí que sea tan importante tenerlas en cuenta; en cualquier momento podrían ser aprovechadas. Podemos diferenciar tres tipos de vulnerabilidades según cómo afectan a nuestra sistema: • Vulnerabilidades ya conocidas sobre aplicaciones o sistemas instalados. Son vulnerabilidades de las que ya tienen conocimiento las empresas que desarrollan el programa al que afecta y para las cuales ya existe una solución, que se publica en forma de parche. Existen listas de correo relacionadas con las noticias oficiales de seguridad que informan de la detección de esas vulnerabilidades y las publicaciones de los parches a las que podemos suscribirnos. • Vulnerabilidades conocidas sobre aplicaciones no instaladas. Estas vulnerabilidades también son conocidas por las empresas desarrolladores de la aplicación, pero puesto que nosotros no tenemos dicha aplicación instalada no tendremos que actuar. • Vulnerabilidades aún no conocidas. Estas vulnerabilidades aún no han sido detectadas por la empresa que desarrolla el programa, por lo que si otra persona ajena a dicha empresa detectara alguna, podría utilizarla contra todos los equipos que tienen instalado este programa. Lograr que los sistemas y redes operen con seguridad resulta primordial para cualquier empresa y organismo. Esto ha llevado a que empresas como Microsoft dispongan de departamentos dedicados exclusivamente a la seguridad, como es Microsoft Security Response Center (NSRC). Sus funciones son, entre otras, evaluar los informes que los clientes proporcionan sobre posibles vulnerabilidades en sus productos, y preparar y divulgar revisiones y boletines de seguridad que respondan a estos informes.
  • Variable: Una variable refiere, en una primer instancia, a cosas que son susceptibles de ser modificadas (de variar), de cambiar en función de algún motivo determinado o indeterminado.Una variable es un pesado de memoria reservado para almacenar un valor, correspondiente a un tipo de dato. Variables Primitivas: Numéricas: Son todas aquellas que contienen Números, y con ellas podemos realizar operaciones matemáticas. Alfanuméricas: Son aquellas que contienen letras y caracteres especiales, siempre que los datos de estas variables van a entrar entre comillas “dato”. Características a la hora de crear una variable: En los nombres de las variables las mayúsculas y minúsculas son diferencia. El los nombres de las variables no se pueden utilizar caracteres especiales, excepto el guión _. El los nombres de las variables deben iniciar por una letra o el guion de piso _. El tamaño del nombre de las variables es ilimitado. El nombre de la variable debe coincidir con el contenido que guarda. El nombre de una variable no puede ser igual a una palabra utiliza por el lenguaje que trabaja.

Comentarios

Entradas populares de este blog