❶ 掌握 arcgis 中近邻分析工具,并解释近邻分析工具和生成邻表工具间的异同
优化的热点分析使用从输入数据特征中派生的参数来执行热点分析 (Getis-Ord Gi*) 工具。
数码相机的自动设置根据光线以及拍摄主体与背景对比度的读数来确定合适的光圈、快门速度和焦点,与此类似,优化的热点分析工具对数据进行查询,从而获得产生最佳热点结果的设置。
❷ 邻近分析和缓冲区分析区别
缓冲区分析是邻近度分析的一种。
缓冲区分析是邻近度分析的一种,缓冲区是为了识别某一地理实体或空间物体对其周围地物的影响度而在其周围建立具有一定宽度的带状区域。
缓冲区分析是用来确定不同地理要素的空间邻近性和邻近程度的一种重要的空间分析操作。
❸ 旅游学中有关近邻效应的实例分析
近邻效应
正效应即这一旅游目的地因其他旅游目的地的出现而对远处客源地产生更强的吸引力,比如云南丽江,单单一个小镇,后来发展了好多如,黑龙潭旅游,梅里雪山,虎跳峡等
负效应即这一旅游目的地因其他旅游目的地的出现而对远处客源地吸引力减弱,旅游者在空间移动中产生分流。
比如宝鸡,咸阳的旅游景点会减少游客因为西安太有名
❹ SPSS分类分析 最近邻元素分析
SPSS分类分析:最近邻元素分析
一、最近邻元素分析(分析-分类-最近邻元素)
1、概念:根据个案间的相似性来对个案进行分类。类似个案相互靠近,而不同个案相互远离。因此,通过两个个案之间的距离可以测量他们的相似性。相互靠近的个案称为“邻元素。”当出现新个案(保持)时,将计算它与模型中每个个案之间的距离。计算得出最相似个案–最近邻元素–的分类,并将新个案放入包含最多最近邻元素的类别中。
2、变量:(分析-分类-最近邻元素-变量)
◎目标(可选)。如果未指定目标(因变量或响应),则过程仅查找k个最近邻元素–而不会执行任何分类或预测。◎标准化刻度特征。标准化特征具有相同的值范围,这可改进估计算法的性能。使用经调整后的标准化[2*(x min)/(max min)]1。调整后的标准化值介于1和1之间。◎焦点个案标识(可选)。这可以标记感兴趣的个案。例如,研究员希望确定学区的测验分数–焦点个案–是否与类似学区的测验分数相当。他使用最近邻元素分析来查找在给定特征组方面最相似的学区。然后,他将焦点学区的测验分数与最近邻学区的分数进行比较。◎个案标签(可选)。在特征空间图表、对等图表和象限图中使用这些值来标记个案。
3、相邻元素:(分析-分类-最近邻元素-相邻元素)
1)最近邻元素的数目(k)。指定最近邻元素的数目。注意,使用大量的邻元素不一定会得到更准确的模型。2)距离计算。该度规用于指定在测量个案相似性中使用的距离度规。◎Euclidean度规。两个个案x和y之间的距离,为个案值之间的平方差在所有维度上之和的平方根。◎城市街区度规。两个个案之间的距离是个案值之间绝对差在所有维度上之和。又称为Manhattan距离。
4、特征:(分析-分类-最近邻元素-特征)
如果在“变量”选项卡中指定了目标,使用“特征”选项卡可以为特征选择请求或指定选项。默认情况下,特征选择会考虑所有特征,但可以选择特征子集以强制纳入模型。
中止准则。在每一步上,如果添加特征可以使误差最小(计算为分类目标的误差率和刻度目标的平方和误差),则考虑将其纳入模型中。继续向前选择,直到满足指定的条件。◎指定的特征数目。除了那些强制纳入模型的特征外,算法还会添加固定数目的特征。指定一个正整数。减少所选择的数目值可以创建更简约的模型,但存在缺失重要特征的风险。增加所选择的数目值可以涵盖所有重要特征,但又存在因特征添加而增加模型误差的风险。◎绝对误差比率的最小变化。当绝对误差比率变化表明无法通过添加更多特征来进一步改进模型时,算法会停止。指定一个正数。减少最小变化值将倾向于包含更多特征,但存在包含对模型价值不大的特征的风险。增加最小变化值将倾向于排除更多特征,但存在丢失对模型较重要的特征的风险。最小变化的“最佳”值将取决于您的数据和具体应用。请参见输出中的“特征选择误差日志”,以帮助您评估哪些特征最重要。
5、分区(分析-分类-最近邻元素-分区)
使用“分区”选项卡可以将数据集划分为培训和坚持集,并在适当时候将个案分配给交叉验证折。
1)训练和坚持分区。此组指定将活动数据集划分为训练样本或坚持样本的方法。训练样本包含用于训练最近邻元素模型的数据记录;数据集中的某些个案百分比必须分配给训练样本以获得一个模型。坚持样本是用于评估最终模型的独立数据记录集;坚持样本的误差给出一个模型预测能力的“真实”估计值,因为坚持个案不用于构建模型。◎随机分配个案到分区。指定分配给训练样本的个案百分比。其余的分配给坚持样本。◎使用变量分配个案。指定一个将活动数据集中的每个个案分配到训练或坚持样本中的数值变量。变量为正值的个案被分配到训练样本中,值为0或负值的个案被分配到坚持样本中。具有系统缺失值的个案会从分析中排除。分区变量的任何用户缺失值始终视为有效。
2)交叉验证折。V折交叉验证用于确定“最佳”邻元素数目。因性能原因,它无法与特征选择结合使用。交叉验证将样本划分为许多子样本,或折。然后,生成最近邻元素模型,并依次排除每个子样本中的数据。第一个模型基于第一个样本折的个案之外的所有个案,第二个模型基于第二个样本折的个案之外的所有个案,依此类推。对于每个模型,估计其错误的方法是将模型应用于生成它时所排除的子样本。“最佳”最近邻元素数为在折中产生最小误差的数量。◎随机分配个案到折。指定应当用于交叉验证的折数。该过程将个案随机分配到折,从1编号到V(折数)。◎使用变量分配个案。指定一个将活动数据集中的每个个案分配到折中的数值变量。变量必须为数值,其值为从1到V的数字。如果此范围中的任何值缺失,且位于任何拆分上(如果拆分文件有效),这将导致误差。
3)为Mersenne扭曲器设置种子。设置种子允许您复制分析。使用此控件类似于将“Mersenne扭曲器”设为活动生成器并在“随机数生成器”对话框中指定固定起始点,两者的重大差别在于在此对话框中设置种子会保留随机数生成器的当前状态并在分析完成后恢复该状态。
二、结果说明(运行后的结果解释)
1、模型视图:在“输出”选项卡中选择图表和表时,过程会在查看器中创建“最近邻元素模型”对象。激活(双击)该对象,可获得模型的交互式视图。此模型视图有2个面板窗口:◎第一个面板显示模型概览,称为主视图。◎第二个面板显示两种视图类型之一
2、特征空间:特征空间图表是有关特征空间(如果存在3个以上特征,则为子空间)的交互式图形。每条轴代表模型中的某个特征,图表中的点位置显示个案这些特征在培训和坚持分区中的值。
3、变量重要性:通常,您将需要将建模工作专注于最重要的变量,并考虑删除或忽略那些最不重要的变量。变量重要性图表可以在模型估计中指示每个变量的相对重要性,从而帮助您实现这一点。由于它们是相对值,因此显示的所有变量的值总和为1.0。变量重要性与模型精度无关。它只与每个变量在预测中的重要性有关,而不涉及预测是否精确。
4、对等:该图表显示焦点个案及其在每个特征和目标上k个最近邻元素。它仅在“特征空间”图表中选择了焦点个案时可用。
5、最近邻元素距离:该表只显示焦点个案的k个最近邻元素与距离。它仅当在“变量”选项卡上指定了焦点个案标识符时可用,且仅显示由此变量标识的焦点个案。
6、象限图:该图表显示焦点个案及其在散点图(点图,取决于目标的测量级别)上k个最近邻元素。目标在y轴上,刻度特征在x轴上,按特征划分面板。它仅当存在目标,且在“特征空间”图表中选择了焦点个案时可用。
7、特征选择误差日志:对于该图表上的点,其y轴值为模型的误差(误差率或平方和误差,取决于目标的测量级别),x轴上列出模型的特征(加上x轴左侧的所有特征)。该图表仅当存在目标,且特征选择有效时可用。
8、K选择误差日志:对于该图表上的点,其y轴值为模型的误差(误差率或平方和误差,取决于目标的测量级别),x轴上为最近邻元素数目(k)。该图表仅当存在目标,且k选择有效时可用。
9、分类表:该表显示按分区对目标观察与预测值的交叉分类。它仅当存在分类目标时可用。坚持分区中的(缺失)行包含在目标上具有缺失值的坚持个案。这些个案对“坚持样本:整体百分比”有贡献,但对“正确百分比”无影响。
❺ 测定近邻星系和星系团的距离有什么方法
测定近邻星系和星系团的距离,科学家们就要用更先进的方法,如造父变星法。在用火箭发射哈勃空间望远镜(HubbleSpaceTeleScope,以下简称HST)以前,造父变星差不多被用做测定本星系群内星系距离的尺码。HST的发射,使得用此法测量近邻星系团的距离成为可能。
但是,仍有一些区域,造父变星显得太暗,此技术难以应用,科学家被迫实行一些猜测的方法。例如,塔利一费希尔(Tully-Fisher)关系—一个关于星系的绝对亮度与其光谱中一特殊谱线(如红光波长的)宽度之间的关系的观测原理,有时被用来测定星系的距离。在测量宇宙的大尺度区间时,比较普遍采用的办法是利用星系的退行速度与距离之间的哈勃定律比例关系,测量一个星系(或星系团)的谱线向红端移动的量,观测者就能估计该星系离我们多远。哈勃1929年的发现即现在所说的哈勃定律告诉我们,所有遥远的星系都在以直接与其距我们距离成比例的速度远离我们而去。换句话说,如果某星系距银河系的距离是另一个星系的两倍,则我们将会发现该星系远离我们而去的速度也会是两倍。罗伯特?贾斯特罗(NASA戈达德研究所的创始人,现在为哈勃曾实现其绝大多数发现的威尔逊山天文台的领导者)写到:“哈勃定律科学史上最伟大的发现之一:它是对创世纪的科学性的主要支持证据之一。”
宇宙学家用一个称作哈勃常数的数字(通常记作H0)来表示速度/距离之间的精确关系。H0是一个很关键的数值,因为如果我们能够将该数值确定下来则我们就能确定宇宙的大小和年龄。在确定哈勃常数方面各方还没有形成一致的意见,因此宇宙学家目前认定宇宙的年龄大致处在80~200亿年之间(这也意味着宇宙的直径有80~200亿光年)。在哈勃常数还未有较可靠的值以前,该定律只能提供相对的距离值。
用于大尺度距离测量的尺码,从视差到造父变星到光谱方法加在一起的“杂烩”叫作宇宙距离阶梯。科学家们用此阶梯,一级一级地从比较熟悉的近邻恒星爬向远方的星系团及类星体。当新的测量棒经过考验可用时,该阶梯便被加固了一些并延伸出去,成为艰难地步步高升连接到宇宙深处的梯子。
除了距离测量问题外,当天文学家们企图绘制可见宇宙的天图时,还遇到另一个因难:需要探索的领域令人难以置信的广阔,潜在的能用望远镜视察的空间的体积超过几十亿光年的立方1031(光年)3,这里面充斥着数百亿个星系(它们中的大多数是HST近来发现的)。要做出它们的目录,恐怕需要花费几百年时间。
与此同时,人类一项重要的探空计划在进行中。如哈佛一施密松天体物理中心(CfA)的盖勒和赫克拉所做的是获得可见宇宙内有代表性的截面中的信息。打算用对这部空间的观测结果,提供星系在宇宙中是如何分布的粗放的概念。
计划中第一个有代表性的天区的图像,是赫克拉和拉普兰特在1985年春季绘制出来的。他们测定了位于一个6度宽的狭长天区内大约1100个星系在空间的位置。选取如此大小的空间观测,是为了能在较短的时间里完成巡查任务。
在开始巡查时,盖勒和她的同事们并未希望见到宇宙中大尺度有序状态的证据。事实上,他们原来想象巡天工作将揭示出一个匀称纹理的宇宙。相信它们将看到星系团均匀地分布在天空,就像少量的葡萄干均匀地分布在葡萄干面包里那样。但实际看到的却是确凿无疑的星系分布的稀奇的式样。星系和星系团不是随机(杂乱)分布,而是表现为组成的、纺锤式的弦(带子)和宽的伸展了的书页,也有成为巨大的物质气泡状的分布态势。这些气泡的里面看来非常地空,好像所有原来在里面的星系全被吸管吸出去了。
CfA小组看到的是这样一个奇特的景象:与浓密地分布几百万个星系的空间区域对比着的是实际上空无一物的天区——他们称其为空洞或巨洞。不知什么缘故,在宇宙历史上的某个时期,大尺度有序状态从混沌中出现。CfA小组难以解释这是如何发生的,他们只是观察到这些情形罢了。
1989年,盖勒和赫克拉把他们的巡天工作延伸到包括几千个星系,并观测到一个新的特色:一个在空间延伸超过5亿光年的星系“巨壁”。这一叫作长城的宇宙栅栏,是宇宙中存在的最大的单一结构特色。
盖勒及其合作者们,远不是注意到宇宙中大尺度结构的第一组人。在50年代,法国天文学家沃库勒(GerarddeVaucoleurs),发起了一场关于他建议的星系和星系团属于更大的天体集团称为“超星系”(现在称为超星系团)的大争论。
当时,大多数天文学家相信星系团是空间最大的天体集团,他们认为,引力理论,如爱因斯坦广义相对论所表达的形式,不利于更大天体集团的形成。还认为,扩展得更大的结构只能通过引力松散地联系在一起,宇宙的膨胀将把它们拉开。因此,这种结构的寿命只能是短暂的,今天的宇宙中不存在这样大的结构。
但经过多年积累的观测资料,国际天文界渐渐接受了宇宙中存在着“星系团的集团”这个事实。我们的本星系群被证明是一个叫做本超星系团的一部分,该超星系团在空间伸展1亿光年,室女座星系团位于其中心。人们还发现了许多其他超星系团,带着它们穿起来的“念珠”,交叉在宇宙中。
沃库勒年轻时是个急性子的人,现在感到了辩解的意义。
时间是检验真理的唯一工具。正如他所说的“正如一个成长的儿童逐渐明白了较大单元的人类组织——家庭、邻居、城市等等——天文学家们在过去400年间逐步认识到天空的等级式安排。这一天文的发展在继续前进中。”
今天,基于不可抗拒的,例如由盖勒、赫克拉和普兰特提供的观测证据,大多数天文学家接受了下列事实:宇宙有一个复杂结构的等级。描述这些结构的名词如“纤维”、“气泡”、“薄片”及“空洞”等,已成为他们经常使用的词汇了。他们不再争论宇宙是否有大尺度结构,而是在寻求去理解这些结构的来源和性质。
❻ 机器学习中算法的优缺点之最近邻算法
机器学习中有个算法是十分重要的,那就是最近邻算法,这种算法被大家称为KNN。我们在学习机器学习知识的时候一定要学习这种算法,其实不管是什么算法都是有自己的优缺点的,KNN算法也不例外,在这篇文章中我们就详细的给大家介绍一下KNN算法的优缺点,大家一定要好好学起来哟。
说到KNN算法我们有必要说一下KNN算法的主要过程,KNN算法的主要过程有四种,第一就是计算训练样本和测试样本中每个样本点的距离,第二个步骤就是对上面所有的距离值进行排序(升序)。第三个步骤就是选前k个最小距离的样本。第四个步骤就是根据这k个样本的标签进行投票,得到最后的分类类别。
那么大家是否知道如何选择一个最佳的K值,这取决于数据。一般情况下,在分类时较大的K值能够减小噪声的影响,但会使类别之间的界限变得模糊。一般来说,一个较好的K值可通过各种启发式技术来获取,比如说交叉验证。另外噪声和非相关性特征向量的存在会使K近邻算法的准确性减小。近邻算法具有较强的一致性结果,随着数据趋于无限,算法保证错误率不会超过贝叶斯算法错误率的两倍。对于一些好的K值,K近邻保证错误率不会超过贝叶斯理论误差率。
那么KNN算法的优点是什么呢?KNN算法的优点具体体现在六点,第一就是对数据没有假设,准确度高,对outlier不敏感。第二就是KNN是一种在线技术,新数据可以直接加入数据集而不必进行重新训练。第三就是KNN理论简单,容易实现。第四就是理论成熟,思想简单,既可以用来做分类也可以用来做回归。第五就是可用于非线性分类。第六就是训练时间复杂度为O(n)。由此可见,KNN算法的优点是有很多的。
那么KNN算法的缺点是什么呢?这种算法的缺点具体体现在六点,第一就是样本不平衡时,预测偏差比较大。第二就是KNN每一次分类都会重新进行一次全局运算。第三就是k值大小的选择没有理论选择最优,往往是结合K-折交叉验证得到最优k值选择。第四就是样本不平衡问题(即有些类别的样本数量很多,而其它样本的数量很少)效果差。第五就是需要大量内存。第六就是对于样本容量大的数据集计算量比较大。
正是由于这些优点和缺点,KNN算法应用领域比较广泛,在文本分类、模式识别、聚类分析,多分类领域中处处有KNN算法的身影。
在这篇文章中我们给大家介绍了很多关于KNN算法的相关知识,通过对这些知识的理解相信大家已经知道该算法的特点了吧,希望这篇文章能够帮助大家更好的理解KNN算法。
❼ 引物退火温度设计技巧是什么
PCR引物设计中的一个重要参数即是熔解温度(Tm)。这是当50%的引物和互补序列表现为双链DNA分子时的温度。Tm对于设定pcr退火温度是必需的。在理想状态下,退火温度足够低,以保证引物同目的序列有效退火,同时还要足够高,以减少非特异性结合。合理的退火温度从55℃到70℃。退火温度一般设定比引物的Tm低5℃。
有几种公式。第一个公式来源于高盐溶液中的杂交,适用于小于18碱基的引物。第二个公式根据GC含量估算Tm。确定引物Tm最可信的方法是近邻分析法。这种方法从序列一级结构和相邻碱基的特性预测引物的杂交稳定性。大部分计算机程序使用近邻分析法。
用的公式及引物序列的不同,Tm会差异很大。因为大部分公式提供一个估算的Tm值,所有退火温度只是一个起始点。可以通过分析几个逐步提高退火温度的反应以提高特异性。开始低于估算的Tm5℃,以2℃为增量,逐步提高退火温度。较高的退火温度会减少引物二聚体和非特异性产物的形成。为获得最佳结果,两个引物应具有近似的Tm值。引物对的Tm差异如果超过5℃,就会引物在循环中使用较低的退火温度而表现出明显的错误起始。如果两个引物Tm不同,将退火温度设定为比最低的Tm低5℃。或者为了提高特异性,可以在根据较高Tm设计的退火温度先进行5个循环,然后在根据较低Tm设计的退火温度进行剩余的循环。这使得在较为严紧的条件下可以获得目的模板的部分拷贝。
❽ k近邻算法的案例介绍
如 上图所示,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。也就是说,现在, 我们不知道中间那个绿色的数据是从属于哪一类(蓝色小正方形or红色小三角形),下面,我们就要解决这个问题:给这个绿色的圆分类。我们常说,物以类聚,人以群分,判别一个人是一个什么样品质特征的人,常常可以从他/她身边的朋友入手,所谓观其友,而识其人。我们不是要判别上图中那个绿色的圆是属于哪一类数据么,好说,从它的邻居下手。但一次性看多少个邻居呢?从上图中,你还能看到:
如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。 如果K=5,绿色圆点的最近的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类。 于此我们看到,当无法判定当前待分类点是从属于已知分类中的哪一类时,我们可以依据统计学的理论看它所处的位置特征,衡量它周围邻居的权重,而把它归为(或分配)到权重更大的那一类。这就是K近邻算法的核心思想。
KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
KNN 算法本身简单有效,它是一种 lazy-learning 算法,分类器不需要使用训练集进行训练,训练时间复杂度为0。KNN 分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中文档总数为 n,那么 KNN 的分类时间复杂度为O(n)。
KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。
K 近邻算法使用的模型实际上对应于对特征空间的划分。K 值的选择,距离度量和分类决策规则是该算法的三个基本要素: K 值的选择会对算法的结果产生重大影响。K值较小意味着只有与输入实例较近的训练实例才会对预测结果起作用,但容易发生过拟合;如果 K 值较大,优点是可以减少学习的估计误差,但缺点是学习的近似误差增大,这时与输入实例较远的训练实例也会对预测起作用,是预测发生错误。在实际应用中,K 值一般选择一个较小的数值,通常采用交叉验证的方法来选择最优的 K 值。随着训练实例数目趋向于无穷和 K=1 时,误差率不会超过贝叶斯误差率的2倍,如果K也趋向于无穷,则误差率趋向于贝叶斯误差率。 该算法中的分类决策规则往往是多数表决,即由输入实例的 K 个最临近的训练实例中的多数类决定输入实例的类别 距离度量一般采用 Lp 距离,当p=2时,即为欧氏距离,在度量之前,应该将每个属性的值规范化,这样有助于防止具有较大初始值域的属性比具有较小初始值域的属性的权重过大。 KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成反比。该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。 该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。
该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。
实现 K 近邻算法时,主要考虑的问题是如何对训练数据进行快速 K 近邻搜索,这在特征空间维数大及训练数据容量大时非常必要。
❾ 远亲不如近邻,请运用你所掌握的民法相邻关系,对其进行怎样分析
相邻关系,是指两个或两个以上相互毗邻的不动产的所有人或使用人,在行使不动产的所有权或使用权时,因相邻各方应当给予便利和接受限制而发生的权利义务关系。
《民法通则》
第83条规定:“不动产的相邻各方 ,应当按照有利生产、方便生活、团结互助、公平合理的精神,正确处理截水、排水、通行、通风、采光等方面的相邻关系,给邻方造成妨碍或损失的,应当停止侵害,排除妨碍,赔偿损失。”
《物权法》第七章规定:
第七章 相邻关系
第八十四条 不动产的相邻权利人应当按照有利生产、方便生活、团结互助、公平合理的原则,正确处理相邻关系。
第八十五条 法律、法规对处理相邻关系有规定的,依照其规定;法律、法规没有规定的,可以按照当地习惯。
第八十六条 不动产权利人应当为相邻权利人用水、排水提供必要的便利。
对自然流水的利用,应当在不动产的相邻权利人之间合理分配。对自然流水的排放,应当尊重自然流向。
第八十七条 不动产权利人对相邻权利人因通行等必须利用其土地的,应当提供必要的便利。
第八十八条 不动产权利人因建造、修缮建筑物以及铺设电线、电缆、水管、暖气和燃气管线等必须利用相邻土地、建筑物的,该土地、建筑物的权利人应当提供必要的便利。
第八十九条 建造建筑物,不得违反国家有关工程建设标准,妨碍相邻建筑物的通风、采光和日照。
第九十条 权利人不得违反国家规定弃置固体废物,排放大气污染物、水污染物、噪声、光、电磁波辐射等有害物质。
第九十一条 不动产权利人挖掘土地、建造建筑物、铺设管线以及安装设备等,不得危及相邻不动产的安全。
第九十二条 不动产权利人因用水、排水、通行、铺设管线等利用相邻不动产的,应当尽量避免对相邻的不动产权利人造成损害;造成损害的,应当给予赔偿。