数字图像处理与边缘检测外文翻译资料

 2022-07-26 15:41:50

Digital Image Processing and Edge Detection

Turgay Celik *, Hasan Demirel, Huseyin Ozkaramanli, Mustafa Uyguroglu

1. Digital Image Processing

Interest in digital image processing methods stems from two principal applicantion areas: improvement of pictorial information for human interpretation; and processing of image data for storage, transmission, and representation for au- tenuous machine perception.

An image may be defined as a two-dimensional function, f(x, y), where x and y are spatial (plane) coordinates, and the amplitude of f at any pair of coordinates (x, y) is called the intensity or gray level of the image at that point. When x, y, and the amplitude values of f are all finite, discrete quantities, we call the image a digital image. The field of digital image processing refers to processing digital images by means of a digital computer. Note that a digital image is composed of a finite number of elements, each of which has a particular location and value. These elements are referred to as picture elements, image elements, peels, and pixels. Pixel is the term most widely used to denote the elements of a digital image.

Vision is the most advanced of our senses, so it is not surprising that images play the single most important role in human perception. However, unlike humans, who are limited to the visual band of the electromagnetic (EM) spec- trump, imaging machines cover almost the entire EM spectrum, ranging from gamma to radio waves.They can operate on images generated by sources that humans are not accustomed to associating with images. These include ultra- sound, electron microscopy, and computer-generated images. Thus, digital image processing encompasses a wide and varied field of applications.

There is no general agreement among authors regarding where image processing stops and other related areas, such as image analysis and computer vi- son, start. Sometimes a distinction is made by defining image processing as a discipline in which both the input and output of a process are images. We believe this to be a limiting and somewhat artificial boundary. For example, under this definition, even the trivial task of computing the average intensity of an image (which yields a single number) would not be considered an image processing operation. On the other hand,there are fields such as computer vision whose ultimate goal is to use computers to emulate human vision, including learning and being able to make inferences and take actions based on visual inputs. This area itself is a branch of artificial intelligence (AI) whose objective is to emulate human intelligence. The field of AI is in its earliest stages of infancy in terms of development, with progress having been much slower than originally anticipated. The area of image analysis (also called image understanding) is in be- teen image processing and computer vision.

There are no clear-cut boundaries in the continuum from image processing at one end to computer vision at the other. However, one useful paradigm is to consider three types of computerized processes in this continuum: low-, mid-, and high-level processes. Low-level processes involve primitive opera- tons such as image preprocessing to reduce noise, contrast enhancement, and image sharpening. A low-level process is characterized by the fact that both its inputs and outputs are images. Mid-level processing on images involves tasks such as segmentation (partitioning an image into regions or objects), description of those objects to reduce them to a form suitable for computer processing, and classification (recognition) of individual objects. A midlevel process is characterized by the fact that its inputs generally are images, but its outputs are attributes extracted from those images (e.g., edges, contours, and the identity of individual objects). Finally, higher-level processing involves “making sense” of an ensemble of recognized objects, as in image analysis, and, at the far end of the continuum, performing the cognitive functions normally associated with vision.

Based on the preceding comments, we see that a logical place of overlap between image processing and image analysis is the area of recognition of individual regions or objects in an image. Thus, what we call in this book digital image processing encompasses processes whose inputs and outputs are images and, in addition,encompasses processes that extract attributes from images, up to and including the recognition of individual objects. As a simple illustration to clarify these concepts,consider the area of automated analysis of text. The processes of acquiring an image of the area containing the text, preprocessing that image, extracting (segmenting)the individual characters, describing the characters in a form suitable for computer processing, and recognizing those individual characters are in the scope of what we call digital image processing in this book. Making sense of the content of the page may be viewed as being in the domain of image analysis and even computer vision,depending on the level of complexity implied by the statement “making sense.” As will become evident shortly, digital image processing, as we have defined it, is used successfully in a broad range of areas of exceptional social and economic value.

The areas of application of digital image processing are so varied that some form of organization is desirable in attempting to capture the breadth of this field. One of the simplest ways to develop a basic understanding of the extent of image processing applications is to categorize images according to their source (e.g., visual, X-ray, and so on). The principal energy source for images in use today is the electromagnetic energy spectrum. Other important sources of energy include acoustic, ultrasonic, and electronic (in the form of electron beams used in electron microscopy). Synthetic images, use

全文共37593字,剩余内容已隐藏,支付完成后下载完整资料


数字图像处理与边缘检测

Turgay Celik *, Hasan Demirel, Huseyin Ozkaramanli, Mustafa Uyguroglu

1.数字图像处理

数字图像处理方法的研究源于两个主要应用领域:其一是为了便于人们分析

而对图像信息进行改进:其二是为使机器自动理解而对图像数据进行存储、传输

及显示。

一幅图像可定义为一个二维函数 f (x, y),这里 x 和 y 是空间坐标,而在任何一对空间坐标(x, y)上的幅值f 称为该点图像的强度或灰度。当x, y和幅值 f为有限的、离散的数值时,称该图像为数字图像。数字图像处理是指借用数字计算机处理数字图像,值得提及的是数字图像是由有限的元素组成的,每一个元素都有一个特定的位置和幅值,这些元素称为图像元素、画面元素或像素。像素是广泛用于表示数字图像元素的词汇。

视觉是人类最高级的感知器官,所以,毫无疑问图像在人类感知中扮演着最

重要的角色。然而,人类感知只限于电磁波谱的视觉波段,成像机器则可覆盖几

乎全部电磁波谱,从伽马射线到无线电波。它们可以对非人类习惯的那些图像源

进行加工,这些图像源包括超声波、电子显微镜及计算机产生的图像。因此,数

字图像处理涉及各种各样的应用领域。

图像处理涉及的范畴或其他相关领域(例如,图像分析和计算机视觉)的界

定在初创人之间并没有一致的看法。有时用处理的输入和输出内容都是图像这一

特点来界定图像处理的范围。我们认为这一定义仅是人为界定和限制。例如,在

这个定义下,甚至最普通的计算一幅图像灰度平均值的工作都不能算做是图像处

理。另一方面,有些领域(如计算机视觉)研究的最高目标是用计算机去模拟人

类视觉,包括理解和推理并根据视觉输入采取行动等。这一领域本身是人工智能

的分支,其目的是模仿人类智能。人工智能领域处在其发展过程中的初期阶段,

它的发展比预期的要慢的多,图像分析(也称为图像理解)领域则处在图像处理

和计算机视觉两个学科之间。

从图像处理到计算机视觉这个连续的统一体内并没有明确的界线。然而,在

这个连续的统一体中可以考虑三种典型的计算处理(即低级、中级和高级处理)

来区分其中的各个学科。

低级处理涉及初级操作,如降低噪声的图像预处理,对比度增强和图像尖锐

化。低级处理是以输入、输出都是图像为特点的处理。中级处理涉及分割(把图

像分为不同区域或目标物)以及缩减对目标物的描述,以使其更适合计算机处理

及对不同目标的分类(识别)。中级图像处理是以输入为图像,但输出是从这些

图像中提取的特征(如边缘、轮廓及不同物体的标识等)为特点的。最后,高级

处理涉及在图像分析中被识别物体的总体理解,以及执行与视觉相关的识别函数

(处在连续统一体边缘)等。

根据上述讨论,我们看到,图像处理和图像分析两个领域合乎逻辑的重叠区

域是图像中特定区域或物体的识别这一领域。这样,在研究中,我们界定数字图

像处理包括输入和输出均是图像的处理,同时也包括从图像中提取特征及识别特

定物体的处理。举一个简单的文本自动分析方面的例子来具体说明这一概念。在

自动分析文本时首先获取一幅包含文本的图像,对该图像进行预处理,提取(分

割)字符,然后以适合计算机处理的形式描述这些字符,最后识别这些字符,而

所有这些操作都在本文界定的数字图像处理的范围内。理解一页的内容可能要根

据理解的复杂度从图像分析或计算机视觉领域考虑问题。这样,我们定义的数字

图像处理的概念将在有特殊社会和经济价值的领域内通用。

数字图像处理的应用领域多种多样,所以文本在内容组织上尽量达到该技术

应用领域的广度。阐述数字图像处理应用范围最简单的一种方法是根据信息源来

分类(如可见光、X 射线,等等)。在今天的应用中,最主要的图像源是电磁能

谱,其他主要的能源包括声波、超声波和电子(以用于电子显微镜方法的电子束

形式)。建模和可视化应用中的合成图像由计算机产生。

建立在电磁波谱辐射基础上的图像是最熟悉的,特别是X 射线和可见光谱图

像。电磁波可定义为以各种波长传播的正弦波,或者认为是一种粒子流,每个粒

子包含一定(一束)能量,每束能量成为一个光子。如果光谱波段根据光谱能量

进行分组,我们会得到下图1 所示的伽马射线(最高能量)到无线电波(最低能

量)的光谱。如图所示的加底纹的条带表达了这样一个事实,即电磁波谱的各波

段间并没有明确的界线,而是由一个波段平滑地过渡到另一个波段。

图像获取是第一步处理。注意到获取与给出一幅数字形式的图像一样简单。

通常,图像获取包括如设置比例尺等预处理。

图像增强是数字图像处理最简单和最有吸引力的领域。基本上,增强技术后

面的思路是显现那些被模糊了的细节,或简单地突出一幅图像中感兴趣的特征。

一个图像增强的例子是增强图像的对比度,使其看起来好一些。应记住,增强是

图像处理中非常主观的领域,这一点很重要。

图像复原也是改进图像外貌的一个处理领域。然而,不像增强,图像增强是

主观的,而图像复原是客观的。在某种意义上说,复原技术倾向于以图像退化的

数学或概率模型为基础。另一方面,增强以怎样构成好的增强效果这种人的主观

偏爱为基础。

彩色图像处理已经成为一个重要领域,因为基于互联网的图像处理应用在不

断增长。就使得在彩色模型、数字域的彩色处理方面涵盖了大量基本概念。在后

续发展,彩色还是图像中感兴趣特征被提取的基础。

小波是在各种分辨率下描述图像的基础。特别是在应用中,这些理论被用于

图像数据压缩及金字塔描述方法。在这里,图像被成功地细分为较小的区域。

压缩,正如其名称所指的意思,所涉及的技术是减少图像的存储量,或者在

传输图像时降低频带。虽然存储技术在过去的十年内有了很大改进,但对传输能

力我们还不能这样说,尤其在互联网上更是如此,互联网是以大量的图片内容为

特征的。图像压缩技术对应的图像文件扩展名对大多数计算机用户是很熟悉的

(也许没注意),如JPG 文件扩展名用于JPEG(联合图片专家组)图像压缩标

准。

形态学处理设计提取图像元素的工具,它在表现和描述形状方面非常有用。

这一章的材料将从输出图像处理到输出图像特征处理的转换开始。

分割过程将一幅图像划分为组成部分或目标物。通常,自主分割是数字图像

处理中最为困难的任务之一。复杂的分割过程导致成功解决要求物体被分别识别

出来的成像问题需要大量处理工作。另一方面,不健壮且不稳定的分割算法几乎

总是会导致最终失败。通常,分割越准确,识别越成功。

表示和描述几乎总是跟随在分割步骤的输后边,通常这一输出是未加工的数

据,其构成不是区域的边缘(区分一个图像区域和另一个区域的像素集)就是其

区域本身的所有点。无论哪种情况,把数据转换成适合计算机处理的形式都是必

要的。首先,必须确定数据是应该被表现为边界还是整个区域。当注意的焦点是

外部形状特性(如拐角和曲线)时,则边界表示是合适的。当注意的焦点是内部

特性(如纹理或骨骼形状)时,则区域表示是合适的。则某些应用中,这些表示

方法是互补的。选择一种表现方式仅是解决把原始数据转换为适合计算机后续处

理的形式的一部分。为了描述数据以使感兴趣的特征更明显,还必须确定一种方

法。描述也叫特征选择,涉及提取特征,该特征是某些感兴趣的定量信息或是区

分一组目标与其他目标的基础。

识别是基于目标的描述给目标赋以符号的过程。如上文详细讨论的那样,我

们用识别个别目标方法的开发推出数字图像处理的覆盖范围。

到目前为止,还没有谈到上面图2 中关于先验知识及知识库与处理模块之间

的交互这部分内容。关于问题域的知识以知识库的形式被编码装入一个图像处理

系统。这一知识可能如图像细节区域那样简单,在这里,感兴趣的信息被定位,

这样,限制性的搜索就被引导到寻找的信息处。知识库也可能相当复杂,如材料

检测问题中所有主要缺陷的相关列表或者图像数据库(该库包含变化检测应用相

关区域的高分辨率卫星图像)。除了引导每一个处理模块的操作,知识库还要控

制模块间的交互。这一特性上面图2 中的处理模块和知识库间用双箭头表示。相

反单头箭头连接处理模块。

2.边缘检测

图像边缘是图像最基本的特征之一,往往携带着一幅图像的大部分信息。而边缘存在于图像的不规则结构和不平稳现象中,也即存在于信号的突变点处,这些点给出了图像轮廓的位置,这些轮廓常常是我们在图像处理时所需要的非常重要的一些特征条件,这就需要我们对一幅图像检测并提取出它的边缘。而边缘检测算法则是图像处理问题中经典技术难题之一,它的解决对于我们进行高层次的特征描述、识别和理解等有着重大的影响;又由于边缘检测在许多方面都有着非常重要的使用价值,所以人们一直在致力于研究和解决如何构造出具有良好性质及好的效果的边缘检测算子的问题。在通常情况下,我们可以将信号中的奇异点和突变点认为是图像中的边缘点,其附近灰度的变化情况可从它相邻像素灰度分布的梯度来反映。

边缘检测是图像处理和计算机视觉中的术语,尤其在特征检测和特征抽取领

域,是一种用来识别数字图像亮度骤变点即不连续点的算法。尽管在任何关于分

割的讨论中,点和线检测都是很重要的,但是边缘检测对于灰度级间断的检测是

最为普遍的检测方法。

图像的大部分主要信息都存在于图像的边缘中,主要表现为图像局部特征的不连续性,是图像中灰度变化比较剧烈的地方,也即我们通常所说的信号发生奇异变化的地方。奇异信号沿边缘走向的灰度变化剧烈,通常我们将边缘划分为阶跃状和屋顶状两种类型。阶跃边缘中两边的灰度值有明显的变化;而屋顶状边缘位于灰度增加与减少的交界处。在数学上可利用灰度的导数来刻画边缘点的变化,对阶跃边缘、屋顶状边缘分别求其一阶、二阶导数。

对一个边缘来说,有可能同时具有阶跃和线条边缘特性.例如在一个表面上,由一个平面变化到法线方向不同的另一个平面就会产生阶跃边缘;如果这一表面具有镜面反射特性且两平面形成的棱角比较圆滑,则当棱角圆滑表面的法线经过镜面反射角时,由于镜面反射分量,在棱角圆滑表面上会产生明亮光条,这样的边缘看起来象在阶跃边缘上叠加了一个线条边缘.由于边缘可能与场景中物体的重要特征对应,所以它是很重要的图像特征。比如,一个物体的轮廓通常产生阶跃边缘,因为物体的图像强度不同于背景的图像强度。

我们知道,边缘检测的实质是采用某种算法来提取出图像中对象与背景间的交界线。我们将边缘定义为图像中灰度发生急剧变化的区域边界。图像灰度的变化情况可以用图像灰度分布的梯度来反映,因此我们可以用局部图像微分技术来获得边缘检测算子。

边缘检测算法有如下四个步骤:

滤波:边缘检测算法主要是基于图像强度的一阶和二阶导数,但导数的计算对噪声很敏感,因此必须使用滤波器来改善与噪声有关的边缘检测器的性能。需要指出,大多数滤波器在降低噪声的同时也导致了边缘强度的损失,因此,增强边缘和降低噪声之间需要折衷。

增强:增强边缘的基础是确定图像各点邻域强度的变化值。增强算法可以将邻域(或局部)强度值有显著变化的点突显出来。边缘增强一般是通过计算梯度幅值来完成的。

检测:在图像中有许多点的梯度幅值比较大,而这些点在特定的应用领域中并不都是边缘,所以应该用某种方法来确定哪些点是边缘点。最简单的边缘检测判据是梯度幅值阈值判据。

定位:如果某一应用场合要求确定边缘位置,则边缘的位置可在子像素分辨率上来估计,边缘的方位也可以被估计出来。在边缘检测算法中,前三个步骤用得十分普遍。这是因为大多数场合下,仅仅需要边缘检测器指出边缘出现在图像某一像素点的附近,而没有必要指出边缘的精确位置或方向。

边缘检测误差通常是指边缘误分类误差,即把假边缘判别成边缘而保留,而把真边缘判别成假边缘而去掉。边缘估计误差是用概率统计模型来描述边缘的位置和方向误差的。我们将边缘检测误差和边缘估计误差区分开,是因为它们的计算方法完全不同,其误差模型也完全不同。

图1-1边缘检测效果图

边缘检测是检测图像局部显著变化的最基本运算.在一维情况下,阶跃边缘同图像的一阶导数局部峰值有关.梯度是函数变化的一种度量,而一幅图像可以看作是图像强度连续函数的取样点阵列.因此,同一维情况类似,图像灰度值的显著变化可用梯度的离散逼近函数来检测.梯度是一阶导数的二维等效式,定义为向量由于各种原因,图像总是受到随机噪声的干扰,可以说噪声无处不在。经典的边缘检测方法由于引入了各种形式的微分运算,从而必然引起对噪声的极度敏感,执行边缘检测的结果常常是把噪声当作边缘点检测出来,而真正的边

全文共10061字,剩余内容已隐藏,支付完成后下载完整资料


资料编号:[144624],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。