找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 3735|回复: 1

信息论(Information Theory)

[复制链接]

该用户从未签到

发表于 2005-4-28 18:21:00 | 显示全部楼层 |阅读模式
信息论是关于信息的本质和传输规律的科学的理论,是研究信息的计量、发送、传递、交换、接收和储存的一门新兴学科。 人类的社会生活是不能离开信息的,人类的社会实践活动不公需要对周围世界的情况有所了解帮能做出正确的反应,而且还要与周围的人群沟通关系才能协调地行动,这就是说,人类不仅时刻需要从自然界获得信息,而且人与人之间也需要进行通讯,交流信息。人类需要随时获取、传递、加工、利用信息,否则就不能生存。人们获得信息的方式有两种;一种是直接的,即通过自己的感觉器官,耳闻、目睹、鼻嗅、口尝、体触等直接了解外界情况;一种是间接的,即通过语言、文字、信号……等等传递消息而获得信息。 通讯是人与人之间交流信息的手段,语言是人类通讯的最简单要素的基础。人类早期只是用语言和手势直接进行通讯,交流信息。“仓颉造字”则使信息传递摆脱了直接形式,同时扩大了信息的储存形式,可算是一次信息技术的革命。印刷术的发明,扩大了信息的传播范围和容量,也是一次重大的信息技术变革。但真正的信息革命则是电报、电话、电视等现代通讯技术的创造与发明,它们大大加快了信息的传播速度,增大了信息传播的容量。正是现代通讯技术的发展导致了关于现代通讯技术的理论——信息论的诞生。 信息论的创始人是美贝尔电话研究所的数学家申农(C.E.Shannon1916——),他为解决通讯技术中的信息编码问题,突破发老框框,把发射信息和接收信息作为一个整体的通讯过程来研究,提出发通讯系统的一般模型;同时建立了信息量的统计公式,奠定了信息论的理论基础。1948年申农发表的《通讯的数学理论》一文,成为信息论诞生的标志。(图) 申农创立信息论,是在前人研究的基础上完成的。1922年卡松提出边带理论,指明信号在调制(编码)与传送过程中与频谱宽度的关系。1922年哈特莱发表《信息传输》的文章,首先提出消息是代码、符号而不是信息内容本身,使信息与消息区分开来,并提出用消息可能数目的对数来度量消息中所含有的信息量,为信息论的创立提供了思路。美国统计学家费希尔从古典统计理论角度研究了信息理论,苏联数学家哥尔莫戈洛夫也对信息论作过研究。控制论创始人维纳建立了维纳滤波理论和信号预测理论,也提出了信息量的统计数学公式,甚至有人认为维纳也是信息论创始人之一。 在信息论的发展中,还有许多科学家对它做出了卓越的贡献。法国物理学家L.布里渊(L.Brillouin)1956年发表《科学与信息论》专著,从热力学和生命等许多方面探讨信息论,把热力学熵与信息熵直接联系起来,使热力学中争论了一个世纪之久的“麦克斯韦尔妖”的佯谬问题得到了满意的解释。英国神经生理学家(W.B.Ashby)1964年发表的《系统与信息》等文章,还把信息论推广应用芋生物学和神经生理学领域,也成为信息论的重要著作。这些科学家们的研究,以及后来从经济、管理和社会的各个部门对信息论的研究,使信息论远远地超越了通讯的范围。因此,信息论可以分成两种:狭义信息论与广义信息论。 狭义信息论是关于通讯技术的理论,它是以数学方法研究通讯技术中关于信息的传输和变换规律的一门科学。广义信息论,则超出了通讯技术的范围来研究信息问题,它以各种系统、各门科学中的信息为对象,广泛地研究信息的本质和特点,以及信息的取得、计量、传输、储存、处理、控制和利用的一般规律。显然,广义信息论包括了狭义信息论的内容,但其研究范围却比通讯领域广泛得多,是狭义信息论在各个领域的应用和推广,因此,它的规律也更一般化,适用于各个领域,所以它是一门横断学科。广义信息论,人们也称它为信息科学。 关于信息的本质和特点,是信息论研究的首要内容和解决其它问题的前提。信息是什么?迄今为止还没有一个公认的定义。 英文信息一词(Information)的含义是情报、资料、消息、报导、知识的意思。所以长期以来人们就把信息看作是消息的同义语,简单地把信息定义为能够带来新内容、新知识的消息。但是后来发现信息的含义要比消息、情报的含义广泛得多,不仅消息、情报是信息,指令、代码、符号语言、文字等,一切含有内容的信号都是信息。哈特莱第一次把消息、情报、信号、语言等等都是信息的载体,而信息则是它们荷载着的内容。但是信息到底是什么呢?申农的狭义信息论第一个给予信息以科学定义:信息是人们对事物了解的不确定性的消除或减少。这是从通讯角度上下的定义,即信源发出了某种情况的不了解的状态,即消除了不定性。并且用概率统计数学方法来度量为定性被消除的量的大小:(图)H(x)为信息熵,是信源整体的平均不定度。而信息I(p)是从信宿角度代表收到信息后消除不定性的程度,也就是获得新知识的量,所以它只不在信源发出的信息熵被信宿收到后才有意义。在排除干扰的理想情况下,信源发出的信号与信宿接收的信号一一对应,H(x)与I(p)二者相等。所以信息熵的公式也就是信息量的分式。式中的k是一个选择单位的常数,当对数以2为底时,单位称比特(bit),信息熵是l0g2=1比特。 在申农寻信息量定名称时,数学家冯.诺依曼建议称为熵,理由是不定性函数在统计力学中已经用在熵下面了。在热力学中熵是物质系统状态的一个函数,它表示微观粒子之间无规则的排列程度,即表示系统的紊乱度,维纳说:“信息量的概仿非常自然地从属于统计学的一个古典概念——熵。正如一个系统中的信息量是它的组织化程度的度量,一个系统的熵就是它的无组织程度的度量;这一个正好是那一个的负数。”这说明信息与熵是一个相反的量,信息是负熵,所以在信息熵的公式中有负号,它表示系统获得后无序状态的减少或消除,即消除不定性的大小。 信息一般具有如下一些特征:1可识别;2可转换;3可传递;4可加工处理;5可多次利用(无损耗性);6在流通中扩充;7主客体二重性。信息是物质相互作用的一种属性,涉及主客体双方;信息表征信源客体存在方式和运动状态的特性,所以它具有客体性,绝对性;但接收者所获得的信息量和价值的大小,与信宿主体的背景有关表现了信息的主体性和相对性。8信息的能动性。信息的产生、存在和流通,依赖于物质和能量,没有物质和能量就没有能动作用。信息可以控制和支配物质与能量的流动。 信息论还研究信道的容量、消息的编码与调制的问题以及噪声与滤波的理论等方面的内容。信息论还研究语义信息、有效信息和模糊信息等方面的问题。广义信息论则把信息定义为物质在相互作用中表征外部情况的一种普遍属性,它是一种物质系统的特性以一定形式在另一种物质系统中的再现。信息概念具有普遍意义,它已经广泛地渗透到各个领域,信息科学是具有方法论性质的一门科学。信息方法具有普适性。 所谓信息方法就是运用信息观点,把事物看做是一个信息流动的系统,通过对信息流程的分析和处理,达到对事物复杂运动规律认识的一种科学方法。它的特点是撇开对象的具体运动形态,把它作为一个信息流通过程加以分析。信息流如下所示:(图)信息方法着眼于信息,揭露了事物之间普遍存在的信息联系,对过去难于理解的现象从信息观占作出了科学的说明。信息论为控制论、自动化技术和现代化通讯技术奠定了理论基础,为研究大脑结构、遗传密码、生命系统和神经病理象开辟了新的途径,为管理的科学化和决策的科学批提供了思想武器。信息方法为认识当代以电子计算机和现代通讯技术为中心的新技术革命的浪潮,为认识论的研究和发展,将进一步提高人类认识与改造自然界的能力。

该用户从未签到

发表于 2005-4-30 07:20:00 | 显示全部楼层
好贴,随喜!
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|HKSF.cn

GMT+8, 2024-11-22 14:55 , Processed in 0.141601 second(s), 17 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表