A informação agora é em forma de código, símbolo calculável.
Claude Elwood Shannon deu inicio a essa teoria, que no começo não foi muito bem recebida, principalmente pelos matemáticos e especialistas da época, que não conseguiram entender do que se tratava claramente. Com o tempo, depois de certo aprimoramento, foram acrescentadas novas ideias e com isso pôde ter um melhor entendimento. Trata-se de uma teoria cuja comunicação deve possuir uma menor quantidade de tempo, pois assim será mais bem entendida, haverá uma melhor comunicação entre emissor e receptor. A Teoria da Informação tem como objetivo o estudo dos mecanismos de transferências de sinais, tornando a quantidade de informação a um nível de sinal, e fazendo com que o conteúdo da informação fosse deixado de lado, e dando lugar a códigos que no caso substituíam essa informação semântica.
Certa quantidade de informação pode ser medida pela entropia, que é uma desorganização de ideias, pode também ser definida também como um excesso de informação, e que por conter tudo em grande quantidade, se torna uma vilã da informação, pelo fato do receptor não compreender a mensagem ou até mesmo entender de forma contrária. Temos também a redundância, que é o contrário, ela é muito útil e até indispensável como forma de informação, serve também como forma de combater os ruídos, que são um problema na comunicação, pois de certa forma atrapalham o bom entendimento de uma mensagem. Podemos dar como exemplo de ruído uma ligação de celular que está falhando, pois ambas as pessoas que estão tentando se comunicar acabam tendo problemas com a ligação e com isso surgem alguns ruídos que interferem esse processo.
Quando recebemos uma mensagem, decodificamos e convertemos do nosso jeito para só depois repassá-la.
0 comentários:
Postar um comentário