图像处理第二次作业(2)
西南大学计算机图像处理基础作业第二次.

作业第二次单选题题目说明:(10.0 分)1. 色阶”调整对话框中滑块调整状态,可以保存成为后缀名为ACV的文件。
A.A:正确B.B:错误纠错(10.0 分)2. 在下列色彩模式中哪种色域最广?A.A:LabB.B:RGBC.C:CMYKD.D:索引颜色纠错(10.0 分)3. 在Magnetic Lasso Tool(磁性套索工具)的选项栏中,Frequency (频率)是用来控制磁性套索工具生成固定点的多少,频率越高,就能越快地固定选择边缘。
A.A:正确B.B:错误纠错(10.0 分)4. 反相命令不能对灰度图使用B.B:错误纠错(10.0 分)5. 专色通道主要是用来表现CMYK四色油墨以外的其它印刷颜色A.A:正确B.B:错误纠错(10.0 分)6. 利用快速蒙版制作的只是一个临时选区A.A:正确B.B:错误纠错(10.0 分)7. 在单击新建图层按钮的同时按下哪个键,可以弹出“新图层”对话框。
A.A:Ctrl键B.B:Alt键C.C:Shift键D.D:Tab键纠错(10.0 分)8. 在默认情况下,对于一组图层,如果上方图层的图层模式为“滤色”,下方图层的图层模式为“强光”,通过合并上下图层得到的新图层的图层模式是下列哪一种。
B.B:强光C.C:正常D.D:不确定纠错(10.0 分)9. 形成Clopping Group(裁切组)的图层只能是连续的图层A.A:正确B.B:错误纠错(10.0 分)10.如果想直接将Alpha通道中的选区载入,那么该按住什么键的同时并单击Alpha通道?A.A:AltB.B:CtrlC.C:ShiftD.D:Shift+Alt纠错(10.0 分)11.无论使用什么工具,只要将光标放于图像中的文本注释小标签上,并进行拖动,就可以切换成为文本注释标签工具。
A.A:正确纠错(10.0 分)12.以下对调节图层(Adjustment Layer)描述错误的是A.A:调节图层可以调整不透明度B.B:调节图层带有图层蒙版C.C:调节图层不能调整图层混合模式D.D:调节图层可以选择Group With Previous Layer(与前一图层编组)命令纠错多选题题目说明:(10.0 分)13.下面有关Extract(提取)命令描述正确的是:A.A:提取命令可将具有复杂边缘的物体从其背景中分离出来B.B:提取命令只能作用于背景层之上C.C:如果在图像上有选择区域,那么提取命令将只对选择区域有效D.D:如果在图像的背景层上执行完提取命令后,那么会将背景层转换为普通层纠错(10.0 分)14.Ctrl+T是自由变换的快捷键,在有一个选区的情况下,按Ctrl+T键必须依靠快捷键才能够完成下列哪些变换操作。
数字图像处理第二章课后习题及中文版解答

数字图像处理(冈萨雷斯版,第二版)课后习题及解答(部分)Ch 22.1使用2.1节提供的背景信息,并采用纯几何方法,如果纸上的打印点离眼睛0.2m 远,估计眼睛能辨别的最小打印点的直径。
为了简明起见,假定当在黄斑处的像点变得远比视网膜区域的接收器(锥状体)直径小的时候,视觉系统已经不能检测到该点。
进一步假定黄斑可用1.5mm × 1.5mm 的方阵模型化,并且杆状体和锥状体间的空间在该阵列上的均匀分布。
解:对应点的视网膜图像的直径x 可通过如下图题2.1所示的相似三角形几何关系得到,即()()220.20.014d x = 解得x =0.07d 。
根据2.1节内容,我们知道:如果把黄斑想象为一个有337000个成像单元的正方形传感器阵列,它转换成一个大小580×580成像单元的阵列。
假设成像单元之间的间距相等,这表明在总长为1.5 mm 的一条线上有580个成像单元和579个成像单元间隔。
则每个成像单元和成像单元间隔的大小为s =[(1.5 mm)/1159]=1.3×10-6 m 。
如果在黄斑上的成像点的大小是小于一个可分辨的成像单元,在我们可以认为改点对于眼睛来说不可见。
换句话说,眼睛不能检测到以下直径的点:x =0.07d<1.3×10-6m ,即d <18.6×10-6 m 。
下图附带解释:因为眼睛对近处的物体聚焦时,肌肉会使晶状体变得较厚,折射能力也相对提高,此时物体离眼睛距离0.2 m ,相对较近。
而当晶状体的折射能力由最小变到最大时,晶状体的聚焦中心与视网膜的距离由17 mm 缩小到14 mm ,所以此图中选取14mm(原书图2.3选取的是17 mm)。
图 题2.12.2 当在白天进入一个黑暗的剧场时,在能看清并找到空座位时要用一段时间适应,2.1节(视觉感知要素)描述的视觉过程在这种情况下起什么作用?解:根据人眼的亮度适应性,1)由于户外与剧场亮度差异很大,因此当人进入一个黑暗的剧场时,无法适应如此大的亮度差异,在剧场中什么也看不见;2)人眼不断调节亮度适应范围,逐渐的将视觉亮度中心调整到剧场的亮度范围,因此又可以看见、分清场景中的物体了。
数字图像处理 灰度级递减 插值 第二次作业

一、实验内容:题目一:把lena.bmp 512*512图像灰度级逐级递减8-1显示。
1. 算法分析:本题中对图像进行的操作是直接灰度变换。
直接灰度变化可以借助图像的位面表示进行。
对一幅用多个比特表示其灰度值的图像来说,其中的每个比特可看做表示了一个二值的平面,也称位面(如下图所示)。
一幅其灰度级用8bit表示的图像有8个位面,一般用位面0 表示最低位面,位面7 表示最高位面。
借助图像的位面表示形式可通过对图像特定位面的操作来达到对图像的增强效果。
2. 具体 MATLAB 实现程序见附录3. 运行结果:256灰度级128灰度级64灰度级32灰度级16灰度级8灰度级4灰度级2灰度级4. 结果分析:对一幅512*512,256个灰度级的具有较多细节的图像,保持空间分辨率不变,仅将灰度级数依次递减为128、64、32、16、8、4、2,比较如下得到的结果就可以发现灰度级数对图像的影响。
当灰度级递减为128或64,一般并不能发现有什么区别。
如果将其灰度级数进一步减为32,则在灰度缓变区常会出现一些几乎看不出来的非常细的山脊状结构。
这种效应成为虚假轮廓,是由于在数字图像的灰度平滑去使用的灰度级数不够而造成的,它一般在用16级或不到16级均匀灰度数的图中比较明显。
因此,运行结果中的前四幅图还基本比较相似,而从第五幅(16灰度级)开始就可以很明显的看到一些虚假轮廓,之后的图中这种现象就也来越明显了,最后一幅2灰度级的图像就已经具有木刻画的效果了。
对比实验中处理过的图像,可以发现,虽然都是灰度图,但是灰度范围越大则图像显示出的色彩越丰富。
题目二:把elain 图像和lena 图像进行加减乘除运算,并按0-255灰度级显示。
1. 算法分析:(1)使用imadd 函数实现两幅图像相加,或常数与图像相加。
该函数将两幅图像对应像素的值相加,将和返回给输出图像的对应像素,若是给每个像素添加一个常数值,可以提高图像的亮度。
关于第2次作业(49布置,423截止)

第2次作业(4.9布置,4.23截止):1、一幅图像的灰度等级为8级,图中像素的灰度值为{0,0,1,1,1,1,3,4,6,7,4,5,3,2,5,4},请画出该灰度图像的直方图;2、简析伪彩色图像域增强的两种方法;3、图像平滑和锐化技术分为空间域增强和变换域增强,其中空间域平滑技术主要有哪些方法?4、简析在对图像进行几何变换时采用插值算法的原因;第2次作业答案1、一幅图像的灰度等级为8级,图中像素的灰度值为{0,0,1,1,1,1,3,4,6,7,4,5,3,2,5,4},请画出该灰度图像的直方图;答:2、简析伪彩色图像域增强的两种方法;答:按灰度-颜色映射方式的不同,可以将伪彩色增强的方法分为强度分层、灰度到彩色变换、频域滤波三种,其中前两种为图像域增强方法。
(1)强度分层是把黑白图像的灰度级从0(黑)到M 0(白)分成N 个区间L i (i=1,2,…,N),给每个区间L i 指定一种彩色C i ,这样,便可以把一幅灰度图像变成一幅伪彩色图像。
(2)灰度到彩色变换是将灰度图像经过红、绿、蓝三种不同的变换器,变成三基色分量(,)R I x y 、(,)G I x y 和(,)B I x y ,从而合成一幅彩色图像。
3、图像平滑和锐化技术分为空间域增强和变换域增强,其中空间域平滑技术主要有哪些方法?答:空间域平滑技术主要有三个方法:(1)邻域平均假设图像是由许多灰度恒定的小块组成,相邻像素间存在很高的空间相关性,而噪声则是统计独立的。
因此,可用当前像素邻域内各像素的灰度平均值代替该像素原来的灰度值,实现图像的平滑去噪。
(2)中值滤波对一个滑动窗口内各个像素的灰度值进行排序,用其中值代替窗口中心像素的原来灰度值,因此是一种非线性的图像平滑法。
(3)图像间运算对图像进行相减运算,可以把两图的差异显示出来,常用于去除背景和运动检测。
图像平均常用于在图像采集中去除加性噪声,随着平均图像数量的增加,噪声在每个像素位置的影响将逐渐减小。
(9124)《计算机图象处理基础》网上作业题及答案

(9124)《计算机图象处理基础》网上作业题及答案1:作业第一次2:作业第二次3:作业第三次4:作业第四次5:作业第五次6:作业第六次1:[论述题]1、请说明如何定义图案参考答案:答:在Photoshop文档中做好需要定义的图案,使用选区工具,将图案选中,再执行编辑-定义图案2:[论述题]2、简述图层合并的方法参考答案:答:找到图层面板,如果要对指定的某几个图层进行合并,则应给它建立链接关系,然后执行合并链接图层;如要全部合并,则只需执行拼合图层,也可以慢慢向下合并;如只对显示的图层合并,则需执行合并可见图层。
3:[论述题]3、常用的图像格式有哪些。
参考答案:答:常用的图像格式有PCX、TIFF、BMP、EPS、TGA、GIF、JPEG、RAW、PSD、PDF、PhotoCD、PICT。
4:[论述题]4、请写出向量图的优点和缺点。
参考答案:答:优点:与分辨率无关,用户可以对图形进行任意放大或缩小,而不会影响它的清晰度和光滑度;便于修改,通过调整其控制点位置,可轻松修改其形状。
5:[论述题]5、写出色域的定义。
参考答案:答:独立。
图像中的每个图层都是独立的,因而当移动、调整或删除某个图层时,其他的图层不受任何影响;透明。
图层可看作是透明的胶片,未绘制图像的区域可看见下方的图层内容。
将众多的图层按一定次序叠加在一起,便可得到复杂的图像;叠加。
图层由上至下叠加在一起,但并不是简单地堆积,通过控制各图层的混合模式和选项,可得到千变万化的图像合成效果。
6:[论述题]6、Photoshop为用户提供了多种选区制作方法,分别是什么?参考答案:答:独立。
图像中的每个图层都是独立的,因而当移动、调整或删除某个图层时,其他的图层不受任何影响;透明。
图层可看作是透明的胶片,未绘制图像的区域可看见下方的图层内容。
将众多的图层按一定次序叠加在一起,便可得到复杂的图像;叠加。
图层由上至下叠加在一起,但并不是简单地堆积,通过控制各图层的混合模式和选项,可得到千变万化的图像合成效果。
电大一网一《数字与图像处理》2023春季学期数字与图像处理第2次平时作业-100分

新疆开放大学直属《数字与图像处理》2023春季学期数字与图像处理第2
次平时作业-100分
题1:下列哪一个不是数字图像处理的目的。
A.存储和传输
B.显示和打印
C.增强和恢复
D.可视化
正确答案:D
题2:下列算法中属于图象锐化处理的是:()
A.低通滤波
B.加权平均法
C.高通滤波
D.中值滤波
正确答案:C
题3:下列算法中属于局部处理的是:()
A.灰度线性变换
B.二值化
C.傅立叶变换
D.中值滤波
正确答案:D
题4:下列哪一项不是伪彩色图像增强的方法。
A.过滤法
B.密度切割法
C.灰度级-彩色变换
D.滤波法。
数字图像处理第二次作业

2014301220040李进华Problem 3.13The purpose of this simple problem is to make the student think of the meaningof histograms and arrive at the conclusion that histograms carry no informationabout spatial properties of images. Thus, the only time that the histogram of the images formed by the operations shown in the problem statement can be determined in terms of the original histograms is when one (both) of the imagesis (are) constant. In (d) we have the additional requirement that none of thepixels of g(x, y) can be 0. Assume for convenience that the histograms are not normalized, so that,for example,h f (r k )is the number of pixels in f (x, y) havingIn tensity level r k. Assume also that all the pixels in g(x, y)have constant value c.The pixels of both images are assumed to be positive. Finally, let u k denote the intensity levels of the pixels of the images formed by any of the arithmetic operations given in the problem statement. Under the preceding set of conditions,the histograms are determined as follows:(a) We obtain the histogram h sum (u k ) of the sum by letting u k =r k +c, and alsoh sum (u k ) = h f (r k ) for all k. In other words, the values (height) of the components of h sum are the same as the components of h f , but their locations on the intensity axis are shifted right by an amount c.(b) Similarly, the histogram h diff (u k ) of the difference has the same componentsas h f but their locations are moved left by an amount c as a result of the sub-traction operation.(c) Following the same reasoning, the values (heights) of the components of histogram h prod (u k ) of the product are the same as h f , but their locations are atu k = c ×r k . Note that while the spacing between components of the resulting histograms in (a) and (b) was not affected, the spacing between components ofh prod (u k ) will be spread out by an amount c.(d) Finally, assuming that c ≠0, the components of h div (u k ) are the same asthose of h f , but their locations will be at u k = r k /c. Thus, the spacing between components of h div (u k ) will be compressed by an amount equal to 1/c. The preceding solutions are applicable if image f (x, y) is constant also. In this casethe four histograms just discussed would each have only one component. Their location would be affected as described (a) through (d).Problem 3.14(a)Thenumberofboundarypointsbetweentheblackandwhiteregionsismuchlarger in the image on the right. When the images are blurred, the boundarypoints will give rise to a larger number of different values for the image on theright, so the histograms of the two blurred images will be different.(b) To handle the border effects, we surround the image with a border of 0s. We assume that image is of size N ×N (the fact that the image is square is evident from the right image in the problem statement). Blurring is implemented bya 3×3 mask whose coefficients are 1/9. Figure P3.14 shows the different typesof values that the blurred left image will have (see image in the problem statement). The values are summarized in Table P3.14-1. It is easily verified that thesum of the numbers on the left column of the table is N 2 . A histogram is easily constructed from the entries in this table. A similar (tedious) procedure yieldsthe results in Table P3.14-2.Problem 3.16(a)The key to solving this problem is to recognize (1) that the convolution resultat any location (x,y) consists of centering the mask at that point and then formingthesumoftheproductsofthemaskcoefficientswiththecorrespondingpixels in the image; and (2) that convolution of the mask with the entire image results in every pixel in the image being visited only once by every element ofthe mask (i.e., every pixel is multiplied once by every coefficient of the mask). Because the coefficients of the mask sum to zero, this means that the sum of the products of the coefficients with the same pixel also sum to zero. Carrying outthis argument for every pixel in the image leads to the conclusion that the sumof the elements of the convolution array also sum to zero.(b) The only difference between convolution and correlation is that the maskis rotated by 180 ◦. This does not affect the conclusions reached in (a), so cor- relating an image with a mask whose coefficients sum to zero will produce acorrelation image whose elements also sum to zero.Problem 3.17One of the easiest ways to look at repeated applications of a spatial filter is to use superposition. Let f (x, y) and h(x, y) denote the image and the filter function, respectively. Assuming square images of size N ×N for convenience, we can express f (x, y) as the sum of at most N 2 images, each of which has only one nonzero pixel (initially, we assume that N can be infinite). Then, the process of running h(x, y) over f (x, y) can be expressed as the following convolution:h(x,y) ★f (x,y) =h(x,y) ★[f1 (x,y)+ f 2 (x,y)+···+ f N 2 (x,y)]Suppose for illustrative purposes that f i (x,y) has value 1 at its center, while the other pixels are valued 0, as discussed above (see Fig. P3.17a). If h(x,y) is a3×3 mask of 1/9’s (Fig. P3.17b), then convolving h(x,y) with f i (x,y) will produce an image with a 3×3 array of 1/9’s at its center and 0s elsewhere, as Fig.P3.17(c) shows. If h(x,y) is now applied to this image, the resulting image willbe as shown in Fig. P3.17(d). Note that the sum of the nonzero pixels in both Figs. P3.17(c) and (d) is the same, and equal to the value of the original pixel. Thus, it is intuitively evident that successive applications of h(x,y) will ”diffuse”the nonzero value of f i (x,y) (not an unexpected result, because h(x,y)is a blurring filter). Since the sum remains constant, the values of the nonzero elements will become smaller and smaller, as the number of applications of the filter increases. The overall result is given by adding all the convolved f k (x,y),for k =1,2,...,N 2 .It is noted that every iteration of blurring further diffuses the values out- wardly from the starting point. In the limit, the values would get infinitely small, but, because the average value remains constant, this would require an image of infinite spatial proportions. It is at this junction that border conditions become important. Although it is not required in the problem statement, it is instructive to discuss in class the effect of successive applications of h(x,y) to an image of finite proportions. The net effect is that, because the values cannot diffuse out- ward past the boundary of the image, the denominator in the successive appli- cationsofaveragingeventuallyoverpowersthepixelvalues, driving the image to zero in the limit. A simple example of this is given in Fig. P3.17(e), which shows an array of size 1×7 that is blurred by successive applications of the 1×3 mask h(y) =13 [1,1,1]. We see that, as long as the values of the blurred 1 can diffuseout, the sum,S, of the resulting pixels is 1. However, when the boundary is met, an assumption must be made regarding how mask operations on the border are treated. Here, we used the commonly made assumption that pixel value imme- diately past the boundary are 0. The mask operation does not go beyond the boundary, however. In this example, we see that the sum of the pixel values be- gins to decrease with successive applications of the mask. In the limit, the term 1/(3) n would overpower the sum of the pixel values, yielding an array of 0s.Problem 3.21From Fig. 3.33 we know that the vertical bars are 5 pixels wide, 100 pixels high, and their separation is 20 pixels. The phenomenon in question is related to the horizontal separation between bars, so we can simplify the problem by consid- ering a single scan line through the bars in the image. The key to answering this question lies in the fact that the distance (in pixels) between the onset of one bar and the onset of the next one (say, to its right) is 25 pixels.Consider the scan line shown in Fig. P3.21. Also shown is a cross sectionof a 25×25 mask. The response of the mask is the average of the pixels that it encompasses. We note that when the mask moves one pixel to the right, it loses one value of the vertical bar on the left, but it picks up an identical one on the right, so the response doesn’t change. In fact, the number of pixels belonging to the vertical bars and contained within the mask does not change, regardless of where the mask is located (as long as it is contained within the bars, and not near the edges of the set of bars).The fact that the number of bar pixels under the mask does not change is dueto the peculiar separation between bars and the width of the lines in relationto the 25-pixel width of the mask This constant response is the reason why no white gaps are seen in the image shown in the problem statement. Note that this constantresponsedoesnothappenwiththe23×23orthe45×45masksbecause they are not ”synchronized”with the width of the bars and their separation.Problem 3.23The student should realize that both the Laplacian and the averaging process are linear operations, so it makes no difference which one is applied first.。
数字图像处理上机作业二

数字图像第二讲作业1.设计一个程序,对一幅灰度图像实现直方图均衡化处理。
画出均衡化前后的图像及其直方图.分析:要实现对一幅灰度图直方图的均衡化处理,须经四步来完成。
首先,获得直方图,及各灰度值对应像素数占总像素数的比例,用矩阵c表示,这是第一次直方图作业的内容。
第二步对c求累加和,得到s矩阵。
第三步,对s进行合理的近似,得到均衡图中的灰度等级。
这里我的处理办法是对s执行s*255操作,得到的值再取uint8(),这样就实现了对s*255的合理近似,即四舍五入,从而得到了新的灰度等级d。
第四步,赋予各像素点新的灰度值,计算出不同灰度等级对应的比例值Ps(sk),这里我用:for j=1:256p(d(j)+1)=p(d(j)+1)+c(j);I2(find(I==j))=d(j);end来求得Ps(sk),循环的作用是将灰度等级d(j)相同的各j对应的原灰度值比例c 累加起来。
I2(find(I==j))=d(j)是将灰度值为j的像素点的灰度值换为d(j);p(d(j)+1)中加1的作用是避免出现p(0)而进行的处理。
代码及注释如下:function junheng(x) % x为要分析的图像名加单引号I=imread(x);b=size(I);a=zeros(1,256); %a为一个1*256的矩阵分别记录灰度为0到255的像素的个数for m=1:b(1) %两个for语句将整张图的所有像素都扫描一遍for n=1:b(2)a(I(m,n)+1)= a(I(m,n)+1)+1; %将灰度为I(m,n)的像素个数存储在%a(I(m,n)+1)中,因为matlab里没有a(0)endendn=0:255;c=a/sum(a); %c为个灰度像素数占总像素数的比例subplot(2,2,1);bar(n,c);title('直方图Pr(rk)'); %画出直方图s=zeros(1,256);s(1)=c(1);for k=2:256s(k)=s(k-1)+c(k);end %s为Pr(rk)的累加和subplot(2,2,2);bar(n,s);title('sk'); %画出sk的图形d=uint8(s*255); %d是对s的合理近似值,即四舍五入p=zeros(1,256);I2=I*0;for j=1:256p(d(j)+1)=p(d(j)+1)+c(j);I2(find(I==j))=d(j);end %以d为灰度值,计算相同d值对应的c值的累加和f imwrite(I2,'junheng.bmp');subplot(2,2,3);bar(n,p);title('均衡化直方图Ps(sk)') %画出均衡化直方图figure;bar(n,c);title('直方图Pr(rk)'); %单独显示直方图figure;bar(n,p);title('均衡化直方图Ps(sk)') %单独显示均衡后直方图figure;subplot(1,2,1);imshow(x);title('原图'); %显示原图subplot(1,2,2);imshow('junheng.bmp');title('均衡后图');%显示均衡化之后图形运行:在命令窗口中输入junheng(‘Lenna.bmp’),输出如下四幅图:这幅图体现了整个程序设计的思路,先由直方图Pr(rk)到累加和的sk图形,最后到均衡图Ps(sk).这两幅图是单独显示的原直方图和均衡化后的直方图。
《多媒体技术基础》形成性考核作业参考答案.doc

第一次作业(共100分)第一章多媒体技术概论一、填空题(每空1分,共10分)1、图形图像动Hili2、计算机数字通讯网3、集成性实时性交互性4、现代通讯技术计算机技术二、单项选择题(每题1分,共5分)1、B2、D3、C4、C5、A三、简答题(14分)1、促进多媒体技术发展的关键技术有:(1) CD-ROM解决了多媒体信息的存储问题;(2)高速计算机网络可以传送多媒体信息;(3)高速位处理技术、专用集成电路技术和亚微米集成电路技术的发展,为多媒体技术提供了高速处理的硬件环境;(4)多媒体压缩技术、人机交互技术和分布式处理技术的出现促进了多媒体系统的产生与发展。
2、这款“戴尔TM DimensionTM 8250”家用计算机采用的是IntelO PentiumO 4处理器, 硬盘容量80GB,内存256MB,显不器为17?纯屏彩色显不器,显卡为64MB Nvidia GeForce4 MX AGP,声卡为SB pve! 5.1 Digital,光驱为16 倍速的DVD-ROMo该计算机为多媒体计算机。
因有内置的网卡,还有调制解调器,所以可以上网。
它还预装了WindowsO XP操作系统,和Norton杀病毒软件。
四、应用题(10分)略。
第二章多媒体信息的表示一、判断题(判断对错,错的要改正,每小题1分,共10分)正确的描述为3、8、10。
1、改正为:音频大约在20Hz-20KHz的频率范围内。
2、改正为:声音的三要素是音调、音强和音色。
4、改正为:对音频数字化來说,在相同条件下,立体声比单声道占的空间大,分辨率越高则占的空间越大,采样频率越高则占的空间越大。
5、改正为:由于MIDI文件是一系列指令而不是波形数据的集合,所以其要求的存储空间较小。
6、对于位图来说,用一位位图时每个像素可以有黑白两种颜色,而用二位位图时每个像素则可以有四种颜色。
7、在相同的条件下,矢量图所占一的空间比位图小。
9、造型动画是对每一个活动的对象分别进行设计,并构造每一个对象的特征,然后用这些对象组成完整的二、单项选择题(每题1分,共11分)1> B 2、B 3、A 4、B 5> B6、B7、A8、B9、A 10、B 11、D三、简答题(共8分)1、多媒体数据的特点主要有:(1)数据量巨大;(2)数据类型多;(3)数据类型间区别大;(4)多媒体数据的输入和输出复杂。
最新数字图像处理第二版上机作业答案

1.创建命令文件creatmatrix.m,实现以下功能:(1)建立一个A矩阵,大小为8×10,该矩阵为符合正态分布的随机矩阵;建立一个B矩阵,大小和A矩阵一样,是一个全1矩阵。
(2)将(1)中生成的A、B矩阵存储在junzhen.mat中。
A=randn(8,10) eye 生成单位矩阵ones全1阵zeros 全零阵B=ones(8,10)rand 均匀随机阵randn 正态随机阵2.创建命令文件imagep.m,实现以下功能:(1)读入cameraman.tif图像文件,查询其文件信息;(2)将该图像数据保存在矩阵I中;(3)显示原始图像,保存为cameraman1.jpg;(4)新建图形窗口,显示16个灰度等级下的图像,保存为cameraman2.bmp;(5)新建图形窗口,显示灰度范围在20到100之间的图像,保存为cameraman3.jpg;I=imread('cameraman.tif');imshow (I);figure,imshow(I,16);figure,imshow(I,[20, 100]);3创建命令文件process.m,实现以下功能:(1)读入football.jpg彩色图像文件,将该图像转换为灰度图像I;(2)设置阈值0.6,将灰度图像I转换为二值图像J1;(3)将图形窗口划分为一行三列,第一个子窗口显示I,第二个子窗口显示J1。
将该图形保存为process.jpgRGB=imread('football.jpg');I=rgb2gray(RGB);J1=im2bw(I,0.6);subplot(1,2,1); imshow(I);subplot(1,2,2); imshow(J1);4创建命令文件process1.m,实现以下功能:读入图像fabric.png彩色图像文件,转换为灰度图像A;将A图像的灰度缩小0.6倍,存入图像矩阵B中;将A图像的灰度放大 1.2倍,存入图像矩阵C中;将图形窗口划分为三行一列,第一个子窗口显示A,第二个子窗口显示B,第三个子窗口显示C。
数字图像处理第二版上机作业答案

1.创建命令文件creatmatrix.m,实现以下功能:(1)建立一个A矩阵,大小为8×10,该矩阵为符合正态分布的随机矩阵;建立一个B矩阵,大小和A矩阵一样,是一个全1矩阵。
(2)将(1)中生成的A、B矩阵存储在junzhen.mat中。
A=randn(8,10) eye 生成单位矩阵ones全1阵zeros 全零阵B=ones(8,10)rand 均匀随机阵randn 正态随机阵2.创建命令文件imagep.m,实现以下功能:(1)读入cameraman.tif图像文件,查询其文件信息;(2)将该图像数据保存在矩阵I中;(3)显示原始图像,保存为cameraman1.jpg;(4)新建图形窗口,显示16个灰度等级下的图像,保存为cameraman2.bmp;(5)新建图形窗口,显示灰度范围在20到100之间的图像,保存为cameraman3.jpg;I=imread('cameraman.tif');imshow (I);figure,imshow(I,16);figure,imshow(I,[20, 100]);3创建命令文件process.m,实现以下功能:(1)读入football.jpg彩色图像文件,将该图像转换为灰度图像I;(2)设置阈值0.6,将灰度图像I转换为二值图像J1;(3)将图形窗口划分为一行三列,第一个子窗口显示I,第二个子窗口显示J1。
将该图形保存为process.jpgRGB=imread('football.jpg');I=rgb2gray(RGB);J1=im2bw(I,0.6);subplot(1,2,1); imshow(I);subplot(1,2,2); imshow(J1);4创建命令文件process1.m,实现以下功能:读入图像fabric.png彩色图像文件,转换为灰度图像A;将A图像的灰度缩小0.6倍,存入图像矩阵B中;将A图像的灰度放大1.2倍,存入图像矩阵C中;将图形窗口划分为三行一列,第一个子窗口显示A,第二个子窗口显示B,第三个子窗口显示C。
图像处理第二次作业

图像处理第二次作业一. 几何畸变的图像如何被复原?为什么灰度插值是必要的?(15分) 答:先创建一个与畸变图像大小相同的空数字矩阵,然后用这个矩阵存放校正后的图像.接着给这个矩阵中的每个元素赋予灰度值,可以通过两步运算来实现,第一步插入灰度值, 第二步空间转换,灰度插值是必要:二. 下图中的网格图是几何畸变图像,阿拉伯数字是灰度值。
已知像素点ABCD 畸变前的位置分别是(0,0),(3,0),(0,3),(3,3)。
假设ABCD 的畸变可以由双线性插值来建模。
求畸变前点(2,2)处的灰度值。
灰度插值采用最近邻插值。
(15分)4 3 2 5 1 3 3 4 2 40 5 5 3 3 0 4 2 1 22 1 0 3 5三. 假设当摄录静态场景时,相机沿平行于图像平面(x,y)的平面移动。
相机延时从t=0到t=T (T 是常数)。
请利用传递函数对由相机移动产生的图像退化过程建模。
(15分)四. 设某一幅图像共有8个灰度级,各灰度级出现的概率分别为:P1=0.20,P2=0.09,P3=0.11,P4=0.13,P5=0.07,P6=0.12,P7=0.08,P8=0.20。
试对此图像进行霍夫曼编码,并计算信源的熵、平均码长、编码效率及冗余度。
(15分)5.图像编码有哪些国际标准?它们的基本应用对象分别是什么?(15分)答: 1、JPEG (Joint Photographic Expert Group )AB C DJPEG是ISO/IEC联合图像专家组制定的静止图像压缩标准,是适用于连续色调(包括灰度和彩色)静止图像压缩算法的国际标准。
JPEC算法共有4种运行模式,其中一种是基于空间预测(DPCM)的无损压缩算法,另外3种是基于DCT的有损压缩算法。
1)无损压缩算法,可以保证无失真地重建原始图像。
2)基于DCT的顺序模式,按从上到下,从左到右的顺序对图像进行编码,称为基本系统。
3)基于DCT的递进模式,指对一幅图像按由粗到细对图像进行编码。
数字图像处理第二次作业

数字图像处理第⼆次作业1. 此处可以补充上⼀次未完成的作业;2. 将⼀幅图像分别进⾏直⽅图均衡化和规定化操作;s = imread('a1.jpg'); I=rgb2gray(s);figureimshow(I)figureimhist(I);II = histeq(I);figureimhist(II);figureimshow(II)2.5 3 4 50 100 150 200 250200250s = imread('a1.jpg'); I=rgb2gray(s); [m,n] = size(I); for i=1 :8:257 count(i)=i;endN = histeq(I,count);figureimshow(N)figureimhist(N);00.511.522.533.54501001502002503. 将⼀幅被椒盐噪声影响的图像分别使⽤3×3、5×5和7×7的模版进⾏均值滤波,将原图像和滤波之后的图像显⽰出来。
并总结说明模版尺⼨对图像效果的影响; i = imread('c1.png'); i=rgb2gray(i);j=imnoise(i,'salt & pepper',0.02); subplot(231), imshow(i);title('?-í?')subplot(232), imshow(j);title('ìí?óá??·éù'); K1 = filter2(fspecial('average',3),j); K2 = filter2(fspecial('average',5),j); K3 = filter2(fspecial('average',7),j);subplot(233), imshow(uint8(K1));title('3X32¨') subplot(234), imshow(uint8(K2));title('5X52¨') subplot(235), imshow(uint8(K3));title('7X72¨')原图添加了椒盐噪声3X3平滑滤波5X5平滑滤波7X7平滑滤波当所⽤平板模板尺⼨增⼤时,对噪声的消除有所增强,但同时所得到的图像便得更加模糊,细节的锐化部分逐步减弱。
图像处理第二次作业(2)

对一幅灰度图像:(1)计算并画出此图像的中心化频率谱。
(2)分别用高斯低通和高斯高通滤波器对图像进行频域处理,并对结果进行分析。
(3)用频域拉普拉斯算子对此图像进行锐化处理,并对结果进行分析。
(1)程序clear;clc;A=imread('lena.jpg','jpg');B=rgb2gray(A);figure;subplot(2,2,1);imshow(B);title('原图像');B_d=double(B);[m,n] = size(B);%fft2函数实现if ismatrix(B_d)%ismatrix:确定输入的是否为矩阵if nargin==1%nargin用来判断输入变量的个数f = fftn(B_d);%fftn:N维离散傅里叶变换elsef = fftn(B_d,[m n]);endelseif nargin==1f = fft(fft(B_d,[],2),[],1);elsef = fft(fft(B_d,n,2),m,1);endendC3=log(1+abs(f));subplot(2,2,2);imshow(C3,[]);title('原图像频谱');%计算并画出此图像的中心化频率谱[m,n] = size(B);for i=1:mfor j=1:nC1(i,j)=((-1)^(i+j))*(B_d(i,j));endendC2=log(1+abs(fft2(C1)));C4=fftshift(log(1+abs(fft2(B_d))));subplot(2,2,3);imshow(C2,[]);title('编写函数实现频谱中心化')subplot(2,2,4);imshow(C4,[])title('matlab函数实现频谱中心化')%分别用低通滤波和高通滤波对此图像进行频域处理C5=fftshift(fft2(B_d));P1=round(m/2);Q1=round(n/2);D0=30;%半径取30,随着D0的增加,低通滤波图像越来越模糊B_lf=C5;B_hf=C5;%低通滤波器for i=1:mfor j=1:nD=sqrt((i-P1)^2+(j-Q1)^2);if D<=D0flag=1;elseflag=0;endB_lf(i,j)=flag*C5(i,j);endendB_lf=uint8(real(ifft2(ifftshift(B_lf))));figure;%高通滤波器for i=1:mfor j=1:nD=sqrt((i-P1)^2+(j-Q1)^2);if D>D0flag=1;elseflag=0;endB_hf(i,j)=flag*C5(i,j);endendB_hf=uint8(real(ifft2(ifftshift(B_hf))));subplot(1,3,1);imshow(B);title('原图像');subplot(1,3,2);imshow(B_lf);title('高斯低通滤波');subplot(1,3,3);imshow(B_hf);title('高斯高通滤波');%用频域拉普拉斯算子对此图像进行锐化处理for i=1:mfor j=1:nD1=(i-P1)^2+(j-Q1)^2;H(i,j)=(-4)*((pi)^2)*D1;H1(i,j)=H(i,j)*C5(i,j);endendH2=real(ifft2(ifftshift(H1)));H2max=max(H2(:));H3=H2(1:m,1:n);k=1;H4=B_d-k*H3/H2max;figure;subplot(1,2,1);imshow(B);title('原图像'); subplot(1,2,2); imshow(H4,[]);title('拉普拉斯图像');%使用moon图像Task3=imread('moon.tif','tif');Task3_1=double(Task3);Task3_2=fftshift(fft2(Task3_1));[m1,n1]=size(Task3);P2=round(m1/2);Q2=round(n1/2);for i=1:m1for j=1:n1D1=(i-P2)^2+(j-Q2)^2;H(i,j)=(-4)*((pi)^2)*D1;H1(i,j)=H(i,j)*Task3_2(i,j);endendH2=real(ifft2(ifftshift(H1)));H2max=max(H2(:));H3=H2(1:m1,1:n1);k=1;H4=Task3_1-k*H3/H2max;figure;subplot(1,2,1);imshow(Task3);title('原图像'); subplot(1,2,2); imshow(H4,[]);title('拉普拉斯图像');(2)实验结果。
数字图像处理每章课后题参考答案

数字图像处理每章课后题参考答案第一章和第二章作业:1.简述数字图像处理的研究内容?答:数字图像处理的主要研究内容,根据其主要的处理流程与处理目标大致可以分为图像信息的描述、图像信息的处理、图像信息的分析、图像信息的编码以及图像信息的显示等几个方面,将这几个方面展开,具体有以下的研究方向:1.图像数字化,2.图像增强,3.图像几何变换,4.图像恢复,5.图像重建,6.图像隐藏,7.图像变换,8.图像编码,9.图像识别与理解。
2.什么是图像工程?根据抽象程度和研究方法等的不同,图像工程可分为哪几个层次?每个层次包含哪些研究内容?答:图像工程是一门系统地研究各种图像理论、技术和应用的新的交叉科学。
根据抽象程度、研究方法、操作对象和数据量等的不同,图像工程可分为三个层次:图像处理、图像分析、图像理解。
图像处理着重强调在图像之间进行的变换。
比较狭义的图像处理主要满足对图像进行各种加工以改善图像的视觉效果。
图像处理主要在图像的像素级上进行处理,处理的数据量非常大。
图像分析则主要是对图像中感兴趣的目标进行检测和测量,以获得它们的客观信息从而建立对图像的描述。
图像分析处于中层,分割和特征提取把原来以像素描述的图像转变成比较简洁的非图形式描述。
图像理解的重点是进一步研究图像中各目标的性质和它们之间的相互联系,并得出对图像内容含义的理解以及对原来客观场景的解释,从而指导和规划行为。
图像理解主要描述高层的操作,基本上根据较抽象地描述进行解析、判断、决策,其处理过程与方法与人类的思维推理有许多相似之处。
第三章图像基本概念1.图像量化时,如果量化级比较小时会出现什么现象?为什么?答:当实际场景中存在如天空、白色墙面、人脸等灰度变化比较平缓的区域时,采用比较低的量化级数,则这类图像会在画面上产生伪轮廓(即原始场景中不存在的轮廓)。
图像的量化等级反映了采样的质量,数字图像的量化级数随图像的内容及处理的目的差别而不同,低的量化级数只满足于处理简单的线条而对于图像,若线条不明显时,则会产生伪轮廓。
遥感图像处理及应用

第一次作业:一、何为遥感技术,有何优势?遥感技术是从人造卫星、飞机或其他飞行器上收集地物目标的电磁辐射信息,判认地球环境和资源的技术。
它是60年代在航空摄影和判读的基础上随航天技术和电子计算机技术的发展而逐渐形成的综合性感测技术。
任何物体都有不同的电磁波反射或辐射特征。
航空航天遥感就是利用安装在飞行器上的遥感器感测地物目标的电磁辐射特征,并将特征记录下来,供识别和判断。
遥感技术的优势:1.探测范围大:航摄飞机高度可达10km左右;陆地卫星轨道高度达到910km左右。
一张陆地卫星图像覆盖的地面范围达到3万多平方千米,约相当于我国海南岛的面积。
我国只要600多张左右的陆地卫星图像就可以全部覆盖。
2.获取资料的速度快、周期短。
实地测绘地图,要几年、十几年甚至几十年才能重复一次;陆地卫星4、5为例,每16天可以覆盖地球一遍。
3.受地面条件限制少:不受高山、冰川、沙漠和恶劣条件的影响。
4.方法多,获取的信息量大:用不同的波段和不同的遥感仪器,取得所需的信息;不仅能利用可见光波段探测物体,而且能利用人眼看不见的紫外线、红外线和微波波段进行探测;不仅能探测地表的性质,而且可以探测到目标物的一定深度;微波波段还具有全天候工作的能力;遥感技术获取的信息量非常大,以四波段陆地卫星多光谱扫描图像为例,像元点的分辨率为79 X 57m,每一波段含有7600000 个像元,一幅标准图像包括四个波段,共有3200万个像元点。
5.用途广:遥感技术已广泛应用于农业、林业、地质、地理、海洋、水文、气象、测绘、环境保护和军事侦察等许多领域。
二、你对遥感过程是如何理解的?遥感过程可理解为系统的组织构成:被测目标的信息特征--信息的获取--信息的传输与记录--信息的处理和信息的应用。
信息主要为发射的电磁波信息,通过电磁波波谱来判断地物的波谱特征。
三、说明遥感的时间分辨率、光谱分辨率、空间分辨率等含义。
空间分辨率指像素所代表的地面范围的大小,即扫描仪的瞬时视场,或是地面物体能分辨的最小单元。
图像处理答案陈新版

第一次作业1、说明图象数字化与图象空间分辨率之间的关系。
2、说明图象数字化与图象灰度分辨率之间的关系。
3、看图说明伪彩色图象采集卡的工作原理,并说明LUT的原理和作用。
第二次作业1、粗略画出下列图象的傅立叶变换图象:变换后的图像如下:(从左至右)2证明付里叶变换的可分离性及快速算法可行性。
可分离性:对于二维傅里叶变换,若把y看成一个常数,则可得到沿x方向的u=0,1,……,N-1的一维傅里叶变换,再将y看成一个变量,x不变,则可得到y方向上v=0,1,……,N-1的一维傅里叶变换,因此二维傅里叶变换可分离。
快速算法可行性:假设N是2的L次方,对于有N个点的傅里叶变换,需要完成N*N次复数乘法和N*(N-1)次复数加法,而对于快速算法,则有(N/2)*L个蝶形算法,因此运算量为(N/2)*㏒2N个复乘和N㏒2N个复加,在N较大时,计算量比DFT少很多。
证明:可分离性:F(u,v)=(1/N)∑∑f(x,y)exp[-j2π(ux+vy)/N] 其变换核g(x,y,u,v)= exp[-j2π(ux+vy)/N]= exp(-j2πux/N)*exp(-j2πvy/N)所以,F(u,v)=(1/N)∑{[∑f(x,y)exp(-j2πux/N)]exp(-j2πvy/N)}这相当于先对x进行傅里叶变换,再对y进行傅里叶变换,可分离性证毕。
快速算法可行性:由可分离性可知,对一维的快速算法可行,那么对二维同样可行,下证一维的快速算法可行性。
F(u)=∑f(x)exp(-j2πux/N),其中N是2的M(整数)次幂。
令f(2r)=f1(r);f(2r+1)=f2(r),则F(u)=∑f(2r)exp[-j2πu(2r)/N]+∑f(2r+1)exp[-j2πu(2r+1)/N]=∑f(2r)exp[-j2πu(2r)/N]+exp(-j2πu/N)f(2r+1)exp[-j2πu(2r)/N]=F1(u)+exp(-j2πu/N)F2(u)因此,F(u)可以分为2个(N/2)长的序列的傅里叶变换。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
对一幅灰度图像:
(1)计算并画出此图像的中心化频率谱。
(2)分别用高斯低通和高斯高通滤波器对图像进行频域处理,并对结果进行分析。
(3)用频域拉普拉斯算子对此图像进行锐化处理,并对结果进行分析。
(1)程序
clear;
clc;
A=imread('lena.jpg','jpg');
B=rgb2gray(A);
figure;
subplot(2,2,1);imshow(B);title('原图像');
B_d=double(B);
[m,n] = size(B);
%fft2函数实现
if ismatrix(B_d)%ismatrix:确定输入的是否为矩阵
if nargin==1%nargin用来判断输入变量的个数
f = fftn(B_d);%fftn:N维离散傅里叶变换
else
f = fftn(B_d,[m n]);
end
else
if nargin==1
f = fft(fft(B_d,[],2),[],1);
else
f = fft(fft(B_d,n,2),m,1);
end
end
C3=log(1+abs(f));
subplot(2,2,2);imshow(C3,[]);title('原图像频谱');
%计算并画出此图像的中心化频率谱
[m,n] = size(B);
for i=1:m
for j=1:n
C1(i,j)=((-1)^(i+j))*(B_d(i,j));
end
end
C2=log(1+abs(fft2(C1)));
C4=fftshift(log(1+abs(fft2(B_d))));
subplot(2,2,3);imshow(C2,[]);
title('编写函数实现频谱中心化')
subplot(2,2,4);imshow(C4,[])
title('matlab函数实现频谱中心化')
%分别用低通滤波和高通滤波对此图像进行频域处理
C5=fftshift(fft2(B_d));
P1=round(m/2);
Q1=round(n/2);
D0=30;%半径取30,随着D0的增加,低通滤波图像越来越模糊B_lf=C5;
B_hf=C5;
%低通滤波器
for i=1:m
for j=1:n
D=sqrt((i-P1)^2+(j-Q1)^2);
if D<=D0
flag=1;
else
flag=0;
end
B_lf(i,j)=flag*C5(i,j);
end
end
B_lf=uint8(real(ifft2(ifftshift(B_lf))));
figure;
%高通滤波器
for i=1:m
for j=1:n
D=sqrt((i-P1)^2+(j-Q1)^2);
if D>D0
flag=1;
else
flag=0;
end
B_hf(i,j)=flag*C5(i,j);
end
end
B_hf=uint8(real(ifft2(ifftshift(B_hf))));
subplot(1,3,1);imshow(B);title('原图像');
subplot(1,3,2);imshow(B_lf);
title('高斯低通滤波');
subplot(1,3,3);imshow(B_hf);
title('高斯高通滤波');
%用频域拉普拉斯算子对此图像进行锐化处理
for i=1:m
for j=1:n
D1=(i-P1)^2+(j-Q1)^2;
H(i,j)=(-4)*((pi)^2)*D1;
H1(i,j)=H(i,j)*C5(i,j);
end
end
H2=real(ifft2(ifftshift(H1)));
H2max=max(H2(:));
H3=H2(1:m,1:n);
k=1;
H4=B_d-k*H3/H2max;
figure;
subplot(1,2,1);imshow(B);title('原图像'); subplot(1,2,2); imshow(H4,[]);
title('拉普拉斯图像');
%使用moon图像
Task3=imread('moon.tif','tif');
Task3_1=double(Task3);
Task3_2=fftshift(fft2(Task3_1));
[m1,n1]=size(Task3);
P2=round(m1/2);
Q2=round(n1/2);
for i=1:m1
for j=1:n1
D1=(i-P2)^2+(j-Q2)^2;
H(i,j)=(-4)*((pi)^2)*D1;
H1(i,j)=H(i,j)*Task3_2(i,j);
end
end
H2=real(ifft2(ifftshift(H1)));
H2max=max(H2(:));
H3=H2(1:m1,1:n1);
k=1;
H4=Task3_1-k*H3/H2max;
figure;
subplot(1,2,1);imshow(Task3);title('原图像'); subplot(1,2,2); imshow(H4,[]);
title('拉普拉斯图像');
(2)实验结果。