Tipos de información en informática según su importancia social. Tipos y métodos de percepción de la información. Papel en la comunicación

Cada día, cada persona es bombardeada con una enorme cantidad de información. Nos encontramos con nuevas situaciones, objetos, fenómenos. Algunas personas afrontan este flujo de conocimientos sin problemas y lo utilizan con éxito en su beneficio. Otros tienen dificultades para recordar algo. Esta situación se explica en gran medida por la pertenencia de una persona a un determinado tipo en cuanto a la forma en que percibe la información. Si se sirve en una forma inconveniente para los humanos, su procesamiento será extremadamente difícil.

¿Qué es la información?

El concepto de “información” tiene un significado abstracto y su definición depende en gran medida del contexto. Traducido del latín, esta palabra significa "aclaración", "presentación", "familiarización". Muy a menudo, el término "información" se refiere a hechos nuevos que una persona percibe y comprende, y que también resultan útiles. En el proceso de procesamiento de esta información recibida por primera vez, las personas adquieren ciertos conocimientos.

¿Cómo se recibe la información?

La percepción de información por parte de una persona es el conocimiento de fenómenos y objetos a través de su impacto en varios sentidos. Al analizar el resultado del impacto de un objeto o situación particular en los órganos de la visión, el oído, el olfato, el gusto y el tacto, el individuo recibe una determinada idea sobre ellos. Por tanto, la base en el proceso de percepción de información son nuestros cinco sentidos. En este caso, participan activamente la experiencia pasada de una persona y los conocimientos adquiridos previamente. Al referirse a ellos, la información recibida se puede atribuir a fenómenos ya conocidos o separarlos de la masa general en una categoría separada. Los métodos de percepción de información se basan en algunos procesos asociados con la psique humana:

  • pensar (habiendo visto u oído un objeto o fenómeno, una persona, comenzando a pensar, se da cuenta de lo que se enfrenta);
  • habla (la capacidad de nombrar el objeto de percepción);
  • sentimientos ( varios tipos reacciones a objetos de percepción);
  • la voluntad de organizar el proceso de percepción).

Presentación de información

Según este parámetro, la información se puede dividir en los siguientes tipos:

  • Texto. Se presenta en forma de todo tipo de símbolos que, combinados entre sí, permiten obtener palabras, frases, oraciones en cualquier idioma.
  • Numérico. Se trata de información representada por números y signos que expresan una determinada operación matemática.
  • Sonido. Se trata de un discurso directamente oral, gracias al cual se transmite información de una persona a otra, y de varias grabaciones de audio.
  • Gráfico. Incluye diagramas, gráficos, dibujos y otras imágenes.

La percepción y la presentación de la información están indisolublemente ligadas. Cada persona intenta elegir exactamente la opción de presentación de datos que garantice su mejor comprensión.

Formas de percepción humana de la información.

Una persona tiene varios de estos métodos a su disposición. Están determinados por los cinco sentidos: visión, oído, tacto, gusto y olfato. En este sentido, existe una determinada clasificación de la información según el método de percepción:

  • visual;
  • sonido;
  • táctil;
  • gusto;
  • olfativo.

La información visual se percibe a través de los ojos. Gracias a ellos, varias imágenes visuales ingresan al cerebro humano, que luego se procesa allí. La audición es necesaria para percibir la información que llega en forma de sonidos (habla, ruido, música, señales). son responsables de la posibilidad de percepción. Los receptores ubicados en la piel permiten estimar la temperatura del objeto en estudio, el tipo de su superficie y su forma. La información gustativa ingresa al cerebro desde los receptores de la lengua y se convierte en una señal mediante la cual una persona comprende qué tipo de producto es: ácido, dulce, amargo o salado. El sentido del olfato también nos ayuda a comprender el mundo que nos rodea, permitiéndonos distinguir e identificar todo tipo de olores. papel principal La visión juega un papel en la percepción de la información. Representa alrededor del 90% del conocimiento adquirido. La forma sonora de percibir la información (la radiodifusión, por ejemplo) representa alrededor del 9%, y los demás sentidos son responsables sólo del 1%.

Tipos de percepción

La misma información que recibe cualquier de cierta manera, es percibido de manera diferente por cada persona. Alguien, después de leer durante un minuto una de las páginas de un libro, puede volver a contar fácilmente su contenido, mientras que otros no recordarán prácticamente nada. Pero si esa persona lee el mismo texto en voz alta, fácilmente reproducirá en su memoria lo que escuchó. Estas diferencias determinan las características de la percepción de la información por parte de las personas, cada una de las cuales es inherente a un determinado tipo. Hay cuatro en total:

  • Imágenes.
  • Aprendices auditivos.
  • Kinestésica.
  • Discreto.

A menudo es muy importante saber qué tipo de percepción de información es dominante para una persona y cómo se caracteriza. Esto mejora significativamente el entendimiento mutuo entre las personas y permite transmitir la información necesaria a su interlocutor de la forma más rápida y completa posible.

Imágenes

Son personas para quienes la visión es el principal órgano sensorial en el proceso de conocer el mundo que les rodea y percibir información. Recuerdan bien el material nuevo si lo ven en forma de texto, imágenes, diagramas y gráficos. En el habla de los estudiantes visuales, a menudo hay palabras que de una forma u otra están relacionadas con las características de los objetos por sus características externas, la función de la visión en sí (“veamos”, “luz”, “brillante”, “será”). ser visible”, “me parece”). Estas personas suelen hablar en voz alta, rápidamente y gesticular activamente. Las personas visuales prestan gran atención a su apariencia y al entorno que les rodea.

auditivos

Para los estudiantes auditivos, es mucho más fácil aprender algo que han oído una vez que visto cien veces. Las peculiaridades de la percepción de la información por parte de estas personas radican en su capacidad de escuchar y recordar bien lo que se dice, tanto en una conversación con colegas o familiares como en una conferencia en un instituto o en un seminario de trabajo. Los estudiantes auditivos tienen un amplio vocabulario y es agradable comunicarse con ellos. Estas personas saben cómo convencer perfectamente a su interlocutor en una conversación con él. Prefieren actividades tranquilas a pasatiempos activos; les gusta escuchar música.

Kinestésica

El tacto, el olfato y el gusto juegan un papel importante en el proceso de percepción cinestésica de la información. Se esfuerzan por tocar, sentir, saborear un objeto. La actividad motora también es importante para los estudiantes cinestésicos. En el habla de estas personas a menudo hay palabras que describen sensaciones ("suave", "según mis sentimientos", "agarrar"). Un niño cinestésico necesita contacto físico con sus seres queridos. Para él son importantes los abrazos y los besos, la ropa cómoda, una cama suave y limpia.

Discreto

Las formas de percibir la información están directamente relacionadas con los sentidos humanos. La mayoría de las personas utilizan la visión, el oído, el tacto, el olfato y el gusto. Sin embargo, los tipos de percepción de información incluyen aquellos que están asociados principalmente con el pensamiento. Las personas que perciben el mundo que les rodea de esta forma se denominan discretas. Hay bastantes y se encuentran solo entre adultos, ya que la lógica no está suficientemente desarrollada en los niños. A una edad temprana, las principales formas de percibir información discreta son la visual y la auditiva. Y solo con la edad comienzan a pensar activamente en lo que vieron y oyeron, mientras descubren nuevos conocimientos por sí mismos.

Tipo de percepción y capacidad de aprendizaje.

Las formas en que las personas perciben la información determinan en gran medida la forma de aprendizaje que les resultará más eficaz. Por supuesto, no hay personas que obtengan nuevos conocimientos enteramente con la ayuda de un órgano de los sentidos o de un grupo de ellos, por ejemplo, el tacto y el olfato. Todos ellos actúan como medio de percepción de información. Sin embargo, saber qué órganos de los sentidos son dominantes en una persona en particular permite que otros le transmitan rápidamente la información necesaria y le permite a la propia persona organizar eficazmente el proceso de autoeducación.

Los estudiantes visuales, por ejemplo, necesitan presentar toda la información nueva en una forma legible, en imágenes y diagramas. En este caso lo recuerdan mucho mejor. Las personas visuales suelen sobresalir en las ciencias exactas. Incluso en la infancia, son excelentes para armar rompecabezas, conocen muchas formas geométricas, son buenos dibujando, esbozando y construyendo con cubos o juegos de construcción.

Los estudiantes auditivos, por el contrario, perciben más fácilmente la información que reciben de él. Puede ser una conversación con alguien, una conferencia o una grabación de audio. Al enseñar una lengua extranjera a estudiantes auditivos, los cursos de audio son preferibles a un tutorial impreso. Si aún necesitas recordar el texto escrito, es mejor decirlo en voz alta.

Los estudiantes cinestésicos son muy móviles. Les resulta difícil concentrarse en algo durante largos períodos de tiempo. A estas personas les resulta difícil aprender el material aprendido en una conferencia o en un libro de texto. El proceso de memorización será más rápido si los estudiantes cinestésicos aprenden a conectar la teoría y la práctica. Les resulta más fácil aprender ciencias como la física, la química, la biología, en las que un término o ley científica específica puede representarse como resultado de un experimento realizado en un laboratorio.

Las personas discretas tardan un poco más que otras en tener en cuenta la nueva información. Primero deben comprenderlo y relacionarlo con su experiencia pasada. Estas personas pueden, por ejemplo, grabar la conferencia de un profesor en un dictáfono y escucharla posteriormente por segunda vez. Entre los discretos hay muchos hombres de ciencia, ya que para ellos la racionalidad y la lógica están por encima de todo. Por lo tanto, en el proceso de estudio, estarán más cerca de aquellas materias en las que la precisión determina la percepción de la información: la informática, por ejemplo.

Papel en la comunicación

Los tipos de percepción de la información también influyen en cómo te comunicas con él para que te escuche. Muy importante para los estudiantes visuales. apariencia interlocutor. El más mínimo descuido en la ropa puede desanimarlo, después de lo cual no importará en absoluto lo que diga. Al hablar con una persona visual, debe prestar atención a sus expresiones faciales, hablar rápidamente mediante gestos y apoyar la conversación con dibujos esquemáticos.

En una conversación con un alumno auditivo, debe haber palabras cercanas a él (“escúchame”, “suena tentador”, “esto dice mucho”). La percepción de la información por parte de una persona auditiva depende en gran medida de cómo habla el interlocutor. debe ser tranquilo y agradable. Es mejor posponer una conversación importante con una persona auditiva si tiene un resfriado severo. Estas personas tampoco pueden tolerar notas estridentes en sus voces.

Las negociaciones con una persona cinestésica deben llevarse a cabo en una habitación con una temperatura agradable y un olor agradable. Estas personas a veces necesitan tocar al interlocutor para comprender mejor lo que oyeron o vieron. No se debe esperar que un alumno cinestésico tome una decisión rápida inmediatamente después de la conversación. Necesita tiempo para escuchar sus sentimientos y comprender que está haciendo todo bien.

El diálogo con personas discretas debe basarse en el principio de racionalidad. Lo mejor es operar con reglas estrictas. Para datos discretos, el lenguaje de los números es más comprensible.

Información(del latín informatio, explicación, presentación, conciencia): cualquier información y datos que reflejen las propiedades de los objetos en condiciones naturales, sociales y sistemas tecnicos y transmitidos por medios sonoros, gráficos (incluidos los escritos) u otros sin utilizar medios técnicos.

Clasificación de la información

La información se puede dividir en tipos según varios criterios:

1. Porforma de percepción:

    Visual: percibido por los órganos de la visión.

    Auditivo: percibido por los órganos auditivos.

    Táctil: percibido por receptores táctiles.

    Olfativo: percibido por los receptores olfativos.

    Gustativo: percibido por las papilas gustativas.

2.Porformulario de presentación:

    Texto: transmitido en forma de símbolos destinados a denotar lexemas de la lengua.

    Numérico: en forma de números y signos que indican operaciones matemáticas.

    Gráfico: en forma de imágenes, objetos, gráficos.

    Sonido: oral o en forma de grabación y transmisión de lexemas de la lengua.

3. Porobjetivo:

    Masa: contiene información trivial y opera con un conjunto de conceptos comprensibles para la mayor parte de la sociedad.

    Especial: contiene un conjunto específico de conceptos; cuando se usa, se transmite información que puede no ser comprensible para la mayor parte de la sociedad, pero que es necesaria y comprensible dentro de un marco estrecho. grupo social donde se utiliza esta información.

    Secreto: transmitido a un círculo reducido de personas y a través de canales cerrados (protegidos).

    Personal (privado): un conjunto de información sobre una persona que determina el estatus social y los tipos de interacciones sociales dentro de la población.

4. Porsignificado:

    Actualizado: información valiosa en en este momento tiempo.

    Confiable: información obtenida sin distorsión.

    Comprensible: información expresada en un lenguaje comprensible para aquellos a quienes está destinada.

    Completo: información suficiente para tomar una decisión o comprensión correcta.

    Útil: la utilidad de la información la determina el sujeto que la recibió en función del alcance de las posibilidades de su uso.

5. Porverdad:

    verdadero

La información tiene las siguientes propiedades:

    fiabilidad

La información es confiable si refleja la verdadera situación. La información inexacta puede provocar malentendidos o malas decisiones. La información confiable tiende a quedar desactualizada, es decir, deja de reflejar el verdadero estado de las cosas.

La información es completa si es suficiente para comprender y tomar decisiones. Tanto la información incompleta como la redundante dificultan la toma de decisiones o pueden dar lugar a errores.

    exactitud

La precisión de la información está determinada por el grado de proximidad al estado real de un objeto, proceso o fenómeno.

    valor

El valor de la información depende de qué tan importante sea para resolver un problema, así como de cuánto tiempo después se utilizará en cualquier tipo de actividad humana.

    oportunidad

Sólo la información recibida a tiempo puede aportar el beneficio esperado. Tanto la presentación prematura de información (cuando aún no se puede asimilar) como su retraso son igualmente indeseables.

    claridad

Si la información valiosa y oportuna se expresa de manera poco clara, puede volverse inútil. La información se vuelve comprensible si se expresa en el idioma hablado por aquellos a quienes está destinada.

    disponibilidad

La información debe presentarse de forma accesible (según el nivel de percepción). Por tanto, las mismas preguntas se presentan de forma diferente en los libros de texto escolares y en las publicaciones científicas.

    brevedad

La información sobre un mismo tema puede presentarse de forma breve (concisa, sin detalles sin importancia) o extensa (detallada, detallada). La concisión de la información es necesaria en libros de referencia, enciclopedias y todo tipo de instrucciones.

cantidad de información Puede considerarse como una medida para reducir la incertidumbre del conocimiento al recibir mensajes de información. Esto permite cuantificar la información. Existe una fórmula que relaciona el número de posibles mensajes de información N y la cantidad de información que llevaba el mensaje recibido: norte=2 i(fórmula de Hartley). A veces se escribe de otra manera. Dado que la ocurrencia de cada uno de los N eventos posibles tiene la misma probabilidad p=1/N, Eso N=1/p y la fórmula se parece yo = iniciar sesión 2 (1/p) = - registro 2 pag

Si los eventos no son igualmente probables, entonces: h i = registro 2 1/ pag i = - registro 2 pag i ,

donde p i es la probabilidad de que el i-ésimo carácter del alfabeto aparezca en un mensaje. Es más conveniente utilizar no el valor h i como medida de la cantidad de información, sino el valor promedio de la cantidad de información por carácter. del alfabeto h = Spag i h i = - Spag i registro 2 pag i

El valor de H alcanza su máximo para eventos igualmente probables, es decir, cuando todos los p i pag i = 1/N

En este caso, la fórmula de Shannon se convierte en la fórmula de Hartley.

Para unidad de cantidad de información Se acepta la cantidad de información que está contenida en el mensaje informativo, reduciendo a la mitad la incertidumbre del conocimiento. Esta unidad se llama poco.

La unidad más pequeña de medida de la cantidad de información es un bit, y la siguiente unidad más grande es un byte, y:

1 byte = 8 bits = 2 3 bits.

En informática, el sistema para formar múltiples unidades de medida es algo diferente al aceptado en la mayoría de las ciencias. Los sistemas métricos tradicionales de unidades, por ejemplo el Sistema Internacional de Unidades SI, utilizan un factor de 10 n como múltiplos de unidades, donde n = 3, 6, 9, etc., que corresponde a los prefijos decimales “Kilo” (10 3 ), “Mega” (10 6), “Giga” (10 9), etc.

En una computadora, la información se codifica mediante un sistema de signos binarios y, por lo tanto, se utiliza un factor de 2n en múltiples unidades de medida de la cantidad de información.

Así, las unidades de medida de la cantidad de información que son múltiplos de un byte se ingresan de la siguiente manera:

1 kilobyte (KB) = 2 10 bytes = 1024 bytes;

1 megabyte (MB) = 2 10 KB = 1024 KB;

1 gigabyte (GB) = 2 10 MB = 1024 MB.

La cantidad de información en el mensaje. Un mensaje consta de una secuencia de caracteres, cada uno de los cuales contiene una determinada cantidad de información.

Si los letreros contienen la misma cantidad de información, entonces la cantidad de información I c en el mensaje se puede calcular multiplicando la cantidad de información I z que lleva un letrero por la longitud del código (número de caracteres en el mensaje) K:

Yo c = Yo z  K

Por tanto, cada dígito de un código informático binario lleva información de 1 bit. Por lo tanto, dos dígitos transportan información en 2 bits, tres dígitos, en 3 bits, etc. La cantidad de información en bits es igual al número de dígitos del código binario de la computadora.

La entropía de la información es una medida de incertidumbre o imprevisibilidad de la información, la incertidumbre de la aparición de cualquier símbolo del alfabeto primario. En ausencia de pérdidas de información, es numéricamente igual a la cantidad de información por símbolo del mensaje transmitido.

La entropía es la cantidad de información por mensaje elemental de una fuente que genera mensajes estadísticamente independientes.

La entropía comenzó a utilizarse como medida de información útil en los procesos de transmisión de señales a través de cables. Por información, Shannon entendía las señales que eran necesarias y útiles para el destinatario. Las señales inútiles, desde el punto de vista de Shannon, son el ruido y las interferencias. Si la señal en la salida de un canal de comunicación es una copia exacta de la señal en la entrada, entonces, desde el punto de vista de la teoría de la información, esto significa ausencia de entropía. Sin ruido significa máxima información. La relación entre entropía e información se refleja en la fórmula: h + Y = 1

donde H es entropía, Y es información. Esta conclusión fue fundamentada cuantitativamente por Brillouin.

Para calcular la entropía, Shannon propuso una ecuación que recuerda a la expresión clásica de entropía encontrada por Boltzmann. h = ∑ PAG i registro 2 1/ PAG i = -∑ PAG i registro 2 PAG i ,

donde H es la entropía de Shannon, Pi es la probabilidad de que ocurra algún evento.

Entropía binaria de información para independientes. eventos aleatorios con posibles estados (de a , - función de probabilidad) se calcula mediante la fórmula:

Esta cantidad también se llama entropía promedio de un mensaje. La cantidad se llama entropía parcial, que caracteriza sólo el estado -e.

Así, la entropía de un evento es la suma con signo opuesto de todos los productos de las frecuencias relativas de ocurrencia del evento, multiplicadas por sus propios logaritmos binarios. Esta definición de eventos aleatorios discretos se puede extender a una función de distribución de probabilidad.

Concepto de información

en concepto "información"(del lat. información- información, explicación, presentación) tiene un significado diferente según la industria donde se considera este concepto: en la ciencia, la tecnología, la vida ordinaria, etc. Normalmente, información significa cualquier dato o información que le interese a alguien (un mensaje sobre cualquier evento, sobre las actividades de alguien, etc.).

En la literatura se pueden encontrar una gran cantidad de definiciones del término. "información", que reflejan diferentes enfoques para su interpretación:

Definición 1

  • Información– información (mensajes, datos) independientemente de la forma de presentación (“Ley Federal de la Federación de Rusia de 27 de julio de 2006, No. $149$-FZ sobre información, tecnologías de la información y sobre protección de la información");
  • Información– información sobre el mundo circundante y los procesos que ocurren en él, percibida por una persona o un dispositivo especial (Diccionario explicativo de la lengua rusa de Ozhegov).

Cuando se habla de procesamiento de datos informáticos, se entiende por información una determinada secuencia de símbolos o signos (letras, números, imágenes gráficas y sonidos codificados, etc.), que lleva una carga semántica y se presenta en una forma comprensible para una computadora.

En informática, la siguiente definición de este término se utiliza con mayor frecuencia:

Definición 2

Información– se trata de información consciente (conocimiento expresado en señales, mensajes, noticias, notificaciones, etc.) sobre el mundo que nos rodea, que es objeto de almacenamiento, transformación, transmisión y uso.

Un mismo mensaje informativo (artículo de revista, anuncio, noticia, carta, certificado, fotografía, programa de televisión, etc.) puede contener diferentes cantidades y contenidos de información para diferentes personas, dependiendo de sus conocimientos acumulados y del nivel de accesibilidad de este mensaje y del nivel de interés en él. Por ejemplo, las noticias escritas en chino no transmiten ninguna información a una persona que no conoce este idioma, pero pueden ser útiles para una persona que sabe chino. Las noticias presentadas en un idioma familiar no contendrán ninguna información nueva si su contenido no está claro o ya se conoce.

La información se considera una característica no de un mensaje, sino de la relación entre el mensaje y su destinatario.

Tipos de información

La información puede existir en diferentes tipos:

  • texto, dibujos, dibujos, fotografías;
  • señales luminosas o sonoras;
  • ondas de radio;
  • impulsos eléctricos y nerviosos;
  • grabaciones magnéticas;
  • gestos y expresiones faciales;
  • olores y sensaciones gustativas;
  • cromosomas a través de los cuales se heredan las características y propiedades de los organismos, etc.

Distinguir principales tipos de información, los cuales se clasifican según su forma de representación, métodos de codificación y almacenamiento:

  • gráfico- uno de los tipos más antiguos, con la ayuda del cual se almacenaba información sobre el mundo circundante en forma de pinturas rupestres y luego en forma de pinturas, fotografías, diagramas, dibujos sobre diversos materiales (papel, lienzo, mármol, etc. .), que representan imágenes del mundo real;
  • sonido(acústico): para almacenar información de sonido, se inventó un dispositivo de grabación de sonido en $ 1877, y para información musical, se desarrolló un método de codificación utilizando caracteres especiales, que permite almacenarla como información gráfica;
  • texto– codifica el habla de una persona utilizando símbolos especiales: letras (diferentes para cada nación); el papel se utiliza para el almacenamiento (escribir en cuadernos, imprimir, etc.);
  • numérico– codifica la medida cuantitativa de los objetos y sus propiedades en el mundo circundante utilizando símbolos especiales: números (cada sistema de codificación tiene el suyo propio); se volvió especialmente importante con el desarrollo del comercio, la economía y el intercambio monetario;
  • información del vídeo- un método para almacenar imágenes "vivas" del mundo circundante, que apareció con la invención del cine.

También hay tipos de información para los cuales aún no se han inventado métodos de codificación y almacenamiento: información táctil, organoléptica etc.

Inicialmente, la información se transmitía a largas distancias mediante señales de luz codificadas, después de la invención de la electricidad, transmitiendo una señal codificada de cierta manera a través de cables y luego mediante ondas de radio.

Nota 1

Claude Shannon es considerado el fundador de la teoría general de la información, quien también sentó las bases comunicaciones digitales, habiendo escrito el libro "Teoría matemática de las comunicaciones" en 1948, en el que fundamentó por primera vez la posibilidad de utilizar código binario para transmitir información.

Las primeras computadoras fueron un medio para procesar información numérica. Con desarrollo equipo de computo Las PC comenzaron a utilizarse para almacenar, procesar y transmitir diversos tipos de información (texto, numérica, gráfica, sonora y de video).

Puede almacenar información utilizando una PC en discos o cintas magnéticas, en discos láser (CD y DVD) y dispositivos especiales de memoria no volátil (memoria flash, etc.). Estos métodos se mejoran constantemente y también se inventan soportes de información. Realiza todas las acciones con información. UPC ORDENADOR PERSONAL.

Los objetos, procesos, fenómenos del mundo material o inmaterial, si se consideran desde el punto de vista de sus propiedades informativas, se denominan objetos informativos.

Se pueden realizar una gran cantidad de procesos de información diferentes sobre la información, que incluyen:

  • Creación;
  • recepción;
  • combinación;
  • almacenamiento;
  • transmisión;
  • proceso de copiar;
  • tratamiento;
  • buscar;
  • percepción;
  • formalización;
  • división en partes;
  • medición;
  • uso;
  • extensión;
  • simplificación;
  • destrucción;
  • memorización;
  • transformación;

Propiedades de información

La información, como cualquier objeto, tiene propiedades, los más importantes entre los cuales, desde el punto de vista de la informática, son:

  • Objetividad. Información objetiva: existente independientemente de la conciencia humana, los métodos para registrarla, la opinión o actitud de alguien.
  • Credibilidad. La información que refleja la verdadera situación es fiable. La información falsa suele conducir a malentendidos o aceptación. decisiones equivocadas. La obsolescencia de la información puede convertir información confiable en información no confiable, porque ya no reflejará la verdadera situación.
  • Lo completo. La información es completa si es suficiente para la comprensión y la toma de decisiones. La información incompleta o redundante puede provocar un retraso en la toma de decisiones o un error.
  • Exactitud de la información – el grado de proximidad al estado real de un objeto, proceso, fenómeno, etc.
  • El valor de la información. Depende de su importancia para la toma de decisiones, la resolución de problemas y su posterior aplicabilidad en cualquier tipo de actividad humana.
  • Pertinencia. Sólo la recepción oportuna de la información puede conducir al resultado esperado.
  • Claridad. Si la información valiosa y oportuna no se expresa claramente, es probable que resulte inútil. La información será comprensible cuando, como mínimo, esté expresada en un lenguaje que el destinatario pueda entender.
  • Disponibilidad. La información debe corresponder al nivel de percepción del destinatario. Por ejemplo, las mismas preguntas se presentan de forma diferente en los libros de texto escolares y universitarios.
  • Brevedad. La información se percibe mucho mejor si no se presenta de forma detallada y detallada, sino con un grado aceptable de concisión, sin detalles innecesarios. La concisión de la información es indispensable en libros de referencia, enciclopedias e instrucciones. La lógica, la compacidad y la forma conveniente de presentación facilitan la comprensión y asimilación de la información.

Básico tipos de información según su forma de representación, métodos de codificación y almacenamiento, que es de mayor importancia para la informática, es:

· gráfico o pictórico– el primer tipo para el cual se implementó un método para almacenar información sobre el mundo circundante en forma de pinturas rupestres, y más tarde en forma de pinturas, fotografías, diagramas, dibujos en papel, lienzo, mármol y otros materiales que representan imágenes del mundo real;

· sonido (acústico)– el mundo que nos rodea está lleno de sonidos y el problema de almacenarlos y replicarlos se resolvió con la invención de los dispositivos de grabación de sonido en 1877; su tipo es información musical; para este tipo se inventó un método de codificación que utiliza caracteres especiales, lo que permite almacenarla de manera similar a la información gráfica;

· texto– un método para codificar el habla humana personajes especiales- en letras, y diferentes naciones tienen diferentes idiomas y utilizar diferentes conjuntos de letras para representar el habla; Este método adquirió especial importancia después de la invención del papel y la imprenta;

· numérico– una medida cuantitativa de los objetos y sus propiedades en el mundo circundante; adquirió una importancia especialmente grande con el desarrollo del comercio, la economía y el intercambio monetario; similarmente información de texto para mostrarlo, se utiliza un método de codificación con símbolos especiales: números, y los sistemas de codificación (números) pueden ser diferentes;

· información del vídeo- una forma de preservar imágenes "vivas" del mundo circundante, que apareció con la invención del cine.

También hay tipos de información para los cuales aún no se han inventado métodos para codificarlos y almacenarlos: información táctil transmitida por sensaciones, información organoléptica transmitida por olores y sabores, etc.

Para transmitir información a largas distancias, inicialmente se utilizaron señales de luz codificadas, con la invención de la electricidad: la transmisión de una señal codificada de cierta manera a través de cables y luego mediante ondas de radio. Para trabajar con la información, la humanidad utiliza ampliamente diversos tipos de tecnología en sus actividades: transmisores de radio, televisión, grabadoras, telegrafía y tecnología informática. Las señales transmitidas por radio y televisión, así como las utilizadas en la grabación magnética, tienen la forma de dependencias funcionales continuas que varían rápidamente en el tiempo. Estas señales se denominan señales continuas o analógicas. Por el contrario, en telegrafía y tecnología informática las señales están en forma de pulsos y se denominan señales discretas. En base a esto, la información puede existir en dos formas:


forma discreta de presentación de información: se trata de una secuencia de símbolos que caracterizan un valor cambiante e intermitente (el número de accidentes de tráfico, el número de reclamaciones presentadas, etc.);

La forma analógica o continua de presentación de información es una cantidad que caracteriza un proceso que no tiene pausas ni lagunas (temperatura del cuerpo humano, velocidad del automóvil en un determinado tramo de la carretera, etc.).

Una persona percibe información analógica utilizando los sentidos. Se esfuerza por grabarlo de tal manera que sea comprensible para los demás. Además, la misma información se puede presentar en diferentes formas, más convenientes para la percepción. Además, puede haber varias representaciones de este tipo, y todas estas formas serán varios modelos objetos, procesos o fenómenos. La presentación de información en diversas formas ocurre en el proceso de percepción. ambiente organismos vivos y humanos, en los procesos de intercambio de información entre hombre y hombre, hombre y computadora, PC y PC, etc. La conversión de información de una forma a otra (codificación) es necesaria para que un organismo vivo, una persona o una computadora pueda almacenar y procesar información en una forma que le resulte conveniente, en un idioma que comprenda. Como regla general, una cantidad continua está asociada con una gráfica de una función y una cantidad discreta está asociada con una tabla de sus valores. Al considerar estos dos objetos de diferente naturaleza, se concluye que con una disminución en el intervalo de muestreo (o, lo que es lo mismo, con un aumento en el número de puntos en la tabla), las diferencias entre ellos disminuyen significativamente. Esto último significa que, en tales condiciones, la cantidad discretizada describe bien la original y continua.

Con codificación digital, cualquier señales analógicas debe ser sometido secuencialmente a tres acciones:

1. Muestreo– este es el proceso de dividir una señal en componentes separados, tomados en ciertos momentos t0,t1, t2... y en intervalos de reloj claramente definidos t.

2. Cuantización– sustitución de componentes individuales del valor de la señal discreta original con el nivel de cuantificación más cercano: t0=1, t1=1,5, t2=2, …

3. Codificación– traducción del valor del nivel de cuantificación a un código binario específico, por ejemplo: 1 – 0001; 1,5 – 0001,1; 2 – 0010, etc.

Arroz. 1. Cuadrícula de niveles de cuantificación

Claude Shannon es considerado el creador de la teoría general de la información y el fundador de las comunicaciones digitales. Su obra fundamental "Teoría matemática de las comunicaciones" (1948), que por primera vez fundamentó la posibilidad de utilizar el código binario para transmitir información, le dio fama mundial.

Con la llegada de las computadoras (o, como se las llamó inicialmente en nuestro país, computadoras, computadoras electrónicas), apareció por primera vez un medio para procesar información numérica. Sin embargo, en el futuro, especialmente después de la generalización computadoras personales, comenzaron a utilizarse para almacenar, procesar, transmitir y recuperar información textual, numérica, visual, sonora y de video. Desde la aparición de los primeros ordenadores personales (años 80 del siglo XX), hasta el 80% de su tiempo de trabajo se dedica a trabajar con información textual.

Cuando se utilizan computadoras, la información se almacena en discos o cintas magnéticas, en discos láser (CD y DVD) y en dispositivos especiales de memoria no volátil (memoria flash, etc.). Estos métodos se mejoran constantemente y también se inventan soportes de información. El procesamiento de la información (reproducción, conversión, transmisión, grabación en medios externos) lo realiza el procesador de la computadora. Utilizando una computadora es posible crear y almacenar nueva información de cualquier tipo, para lo cual sirven programas especiales, utilizado en computadoras y dispositivos de entrada de información.

Pasando a la consideración de las propiedades de la información, cabe señalar que la información actúa como propiedad de los objetos y fenómenos (procesos) para generar una variedad de estados que, a través de la reflexión, se transmiten de un objeto a otro y se fijan en su estructura (posiblemente en una forma modificada).

Estudios de informática... o información y sus propiedades o procesos n almacenamiento... n procesamiento... n y transmisión de información mediante ordenadores. Francés: informatique = información + automatique automatización de la información Inglés: informática informática + ciencia = informática 2

Información es... cualquier información sobre el mundo que nos rodea que una persona recibe usando los sentidos: n ojos (visión, 90 por ciento de la información) n n oídos (oído) lengua (gusto) nariz (olfato) piel (tacto) Latín: informatio - explicación, información 3

La información es... "La información es información, no materia ni energía". N. Wiener, “Cibernética o control y comunicación en animales y máquinas” La información es uno de los conceptos básicos de la ciencia (como la materia, la energía), por lo que no existe una definición más clara: § no se puede expresar mediante conceptos más simples § solo se explica con ejemplos o en comparación con otros conceptos 4

Tipos de información o Símbolo (signo, gesto) o Texto (consta de símbolos, su orden es importante) CAT TOK o Información numérica oh Información gráfica(dibujos, pinturas, dibujos, fotografías, diagramas, mapas) o Sonido o Información táctil (tacto) o Gusto o Olor 5

Información en naturaleza inanimada Orden, organización, heterogeneidad de la información q Sistemas cerrados (sin intercambio de información y energía con el entorno externo): orden (más información) caos (menos información) q Sistemas abiertos (posible aumento de información): H H O hidrógeno y oxígeno átomos O H H molécula agua polvo de estrellas galaxia 6

Información en la naturaleza viva q Organismos vivos – sistemas abiertos. q Los organismos unicelulares utilizan información sobre la temperatura y la composición química. q La complicación aumenta la información. ¡La luz es materia orgánica! dióxido de carbono CO 2 agua H 2 O glucosa C 6 H 12 O 6 fotosíntesis oxígeno O 2 q Los animales perciben información con sus sentidos. 7

Información en biología § Las señales transportan información desde los órganos de los sentidos al cerebro: § Información hereditaria (molécula de ADN): 9

Información en tecnología § sistemas de estabilización: t° sensor controlador calentador t° § sistemas control de programa torno de baño de vapor 10

Información en tecnología § robots (tienen sensores que reemplazan los sentidos: visión, oído, tacto) Lunar rover Asimo (Honda) § computadoras: dispositivos especiales para almacenar, transmitir y procesar información § sistemas automatizados venta de entradas (ASU "Express") § Internet - global sistema de información 11

Propiedades de la información La información debe ser objetiva (independiente de la opinión de cualquiera) “Hace calor afuera”, “Afuera hace 28°C”. n comprensible ( idioma en Inglés?) n útil (el destinatario resuelve sus problemas) n confiable (correcto) desinformación, interferencia, rumores, historias n relevante - debe ser importante en el momento (clima, terremoto) desactualizado, innecesario n completo (suficiente para tomar la decisión correcta) “El concierto será por la noche”, cuento 12

Procesos de información o Almacenamiento n cerebro, papel, piedra, corteza de abedul, ... n Memoria de PC, disquetes, discos duros, CD, DVD, cinta magnética o Procesamiento n creación de nueva información n codificación - cambio de forma, registro en algún signo sistema (en forma de código) n búsqueda n clasificación – organizar los elementos de la lista en un orden determinado o Fuente de transmisión de información interferencia canal de comunicación receptor de información 14

Codificación de información La codificación es el registro de información utilizando algún sistema de signos (lenguaje). ? ¿Por qué se codifica la información? Datos de codificación (código) La información se transmite, procesa y almacena en forma de códigos. 101010 transmisión antiinterferencias (métodos de codificación especiales) datos (código) 11111100010 almacenamiento de procesamiento de transmisión 15

Idiomas El lenguaje es un sistema de signos que se utiliza para almacenar y transmitir información. n natural (ruso, inglés, ...) hay reglas y excepciones n programa formal (reglas estrictas) qq; comenzar a escribir ("¡Hola!"); fin. La gramática son las reglas mediante las cuales se construyen las palabras a partir de los símbolos del alfabeto. La sintaxis son las reglas mediante las cuales las palabras se construyen en oraciones. 16

Tarea de codificación 1. Codifique su nombre usando el código Morse. VASYA! El código es desigual, ¡se necesita un separador! 17

Tarea de codificación 2. Codifique su nombre usando la tabla de códigos (Windows-1251): 0 1 2 3 4 5 6 7 8 9 A B C D E F C A B C D E G H I J K L M N O P D R S T U V X C CH SH SCH Y Y Y VASYA! B A S Y S 2 C 0 D 1 DF El código es uniforme, ¡NO se necesita un separador! 18

Codificación: objetivos y métodos Texto: § en Rusia: ¡Hola, Vasya! § Windows-1251: CFF 0 E 8 E 2 E 52 C 20 C 2 E 0 F 1 FF 21 § transferencia al extranjero (traducción): Privet, Vasya! § taquigrafía: § cifrado: Rsygzhu-!Gbta” ? Números: ¿Cómo se cifran? § para cálculos: 25 § en letras: veinticinco § Sistema romano: XXV! La información (significado del mensaje) se puede codificar. de diferentes maneras! 19

Unidades de medida 1 bit (dígito binario) es la cantidad de información que recibimos al elegir uno de dos opciones posibles(pregunta: ¿“Sí” o “No”?) Ejemplos: ¿Esta pared es verde? Sí. ¿Está la puerta abierta? No. ¿Hoy es día libre? No. ¿Es este un auto nuevo? Nuevo. ¿Quieres té o café? Café. 21

Si hay más opciones... ¿“Sí” o “No”? 2 opciones – 1 bit 4 opciones – 2 bits 8 opciones – 3 bits? ¿Cambiará la cantidad de información si señala inmediatamente el avión deseado? 22

Conversión a otras unidades 25 KB = =25· 1024 bytes =25· 1024· 8 bits =25: 1024 MB =25: 1024=25: 10242 GB =25: 1024: 1024= 25: 10243 TB multiplicación unidades grandes división unidades pequeñas 40

Src="https://site/presentation/150632667_184504194/image-27.jpg" alt=" Conversión a otras unidades Comparar (poner signo o =): 3 bytes ="> Перевод в другие единицы Сравните (поставьте знак или =): 3 байта = 24 бита 1000 байт!}

Tareas: texto ¿Cuánto espacio de memoria se debe asignar para almacenar la frase Hola, Vasya! n contar todos los caracteres, incluidos los signos de puntuación y los espacios (aquí hay 13 caracteres) n si no información adicional, entonces asumimos que 1 carácter ocupa 1 byte n en codificación UNICODE 1 carácter ocupa 2 bytes Respuesta: 13 bytes o 104 bits (en UNICODE: 26 bytes o 208 bits) 42

Problemas: texto ¿Cuánto espacio se debe asignar para almacenar 10 páginas de un libro si cada página contiene 32 líneas de 64 caracteres cada una? Solución: n en 1 página 32 64=2048 caracteres n en 10 páginas 10 2048=20480 caracteres n cada carácter ocupa 1 byte Respuesta: n 20480 bytes o... n 20480 8 bits o... n 20480: 1024 KB = 20 KB 43

Instrucciones