导航:首页 > 研究方法 > qa的分析方法

qa的分析方法

发布时间:2025-04-15 14:51:39

‘壹’ QA问句解析的七种方法及优化思路

在 《浅谈智能搜索和对话式OS》 中,提到过,人机对话系统的常见场景有三种,分别为: 闲聊型(Chatbot) 问答型(QA) 任务型(VPA) 。本篇文章所关注的解析方式主要适用于QA系统中的封闭域问答,也即: 将用户问句解析为库中存在的标准问句

这里讲的七种方法均为我个人阅读文献后归纳整理而来,并不都是成熟稳定可以商业化的做法,目的只是提出思路以作参考。

基于规则的方法通常在缺乏训练数据的情况下采用,由于与后面的基于统计的方法区别较大,所以记为第零种方法。

基于规则的解析系统通常由两部分构成:一个是‘规则库’,解析规则通常为 CFG 上下文无关文法;另一个是‘同义词库’,记录了一些标准词的常见同义词。

整个解析就是一个上下文无关文法归约的过程。首先进行自动分词,接着将用户问句中的词依照‘同义词库’归约为标准词,然后再将词归约后的问句与‘规则库’中的解析规则比对,一旦比对成功,即该条用户问句被成功归约到该条解析规则所对应的标准问句上。

举个例子,同义词库中有这样两条记录:‘失败:不上去、不进去、不成功、错误’‘登录:登陆、登录’,规则库中有这样一条规则:‘账号登录失败:[账号][登录][失败]’。

有一条用户问句是这样的‘我账号怎么登陆不上去了’。首先假定分词正确,分词结果为‘我|账号|怎么|登陆|不上去|了’;之后进行词归约,归约结果为‘我账号怎么登录失败了’;接着与规则‘账号登录失败:[账号][登录][失败]’比对,发现比对成功。该条用户问句被成功归约为标准问句‘账号登录失败’,我们将系统中‘账号登录失败’所对应的标准答案提供给用户,完成交互流程。

这样做在一定程度上能够解决问题,但缺点也特别严重。首先‘规则库’与‘同义词库’需要人工构建,这需要巨大且长期的人力资源投入。因为语言的表达方式理论上是无限的,而能想到的规则和同义词总是有限的;且随着语言的发展,或是业务的变动,整个规则库和同义词库的维护也需要持续的人力资源投入。

其次,编写规则库需要丰富的经验,对于人员素质的要求极高。因为解析规则的抽象程度相当高,在这样高的抽象程度上,即便编写者具有较丰富的经验(如果没经验会更糟),不同解析规则之间的冲突也是不可避免的,也即同一条用户问句会与多条标准问句的解析规则比对成功,这种情况下的标准问句选择/评分问题,又需要另一套系统来解决。

换个角度,我们可以将依照用户问句找到标准问句的过程看做是输入 Query 得到 Document 的搜索过程。

我们可以尝试采用传统搜索引擎中使用的检索模型来进行用户问句解析。 《浅谈搜索引擎基础(上)》 中提到,BM25 是目前效果最好的检索模型,我们就以 BM25 模型为例来分析。

BM25 模型的计算公式如下:

BM25 模型计算公式融合了 4 个考虑因素: IDF 因子 文档词频 文档长度因子 查询词频 ,并利用 3 个自由调节因子(k1、k2 和 b)对各种因子的权值进行调整组合。

其中,N 代表文档总数,n 代表出现对应单词的文档个数,f 指文档中出现对应单词的词频,qf 是查询语句中对应单词的词频,dl 是文档长度。

利用 BM25 模型可以有三种思路,分别把标准问句、标准问句及标准答案、历史中曾经正确匹配过该标准问句的用户问句集作为 Document,利用公式计算其与用户问句的相似度,然后利用相似度进行排序,取出评分最高的标准问句作为解析结果。

对于这个思路我没有做过实验,不过我推测,这种方法虽然节省了大量的人力,但在这种封闭域的 QA 系统中,其表现应当是不如上一种基于规则的方法,基于检索模型的方法在开放域中的表现会更好。

此外,基于传统检索模型的方法会存在一个固有缺陷,就是检索模型只能处理 Query 与 Document 有重合词的情况,传统检索模型无法处理词语的语义相关性。在上一种方法中,通过人工搭建的同义词库,一定程度上解决了语义相关性的问题。

上文提到,完全基于检索模型的方法无法处理词语的语义相关性。

为了在一定程度上解决这个问题,我们可以利用 LDA/SMT 等方法通过语料挖掘词之间的同义关系,为每个词自动构建一个同义度高于阈值且大小合适的同义词表。在代入检索模型公式进行计算的过程中,若文档中发现所查找关键词的同义词,可以依据同义程度乘以一定权重后纳入到关键词的词频计算之中。

《浅谈智能搜索和对话式OS》 中有对 LDA/SMT 的介绍。

简单的说,LDA 可以合理的将单词归类到不同的隐含主题之中;并且通过计算两篇文章主题向量 θ 的 KL 散度(相对熵),可以得到两篇文章的相似性。SMT 模型出自微软之手,目的即是将翻译模型引入传统检索模型,提高检索模型对语义相关词对的处理能力,该模型也曾被网络采用过以提高搜索引擎返回结果的质量。

word embedding 将词表示为 Distributed Representation,也即低维向量空间中的一个词向量,Distributed Representation 下的词可以利用余弦距离来计算词之间语义的相关关系。与 one-hot Representation 相对应,one-hot Representation 下的词向量的维数与单词表的维数相同,不同词的词向量之间均正交。传统的词集模型(SOW)和词袋模型(BOW)采用的即是 one-hot Representation。

我们可以采用深度学习的方法来得到词 Distributed Representation 的词向量。比如训练一个普通的神经概率语言模型,就可以得到词的词向量,或者参考 word2vec 中的方式,训练 CBOW 或者 Skip-gram 模型。神经概率语言模型、CBOW 以及 Skip-gram 的介绍在 《浅谈智能搜索和对话式OS》 均有提及。

借助网络这张图来讲,利用 DNN 建模的思路如下:

我们需要使用一批 用户问句-标准问句对 的正例和反例作为训练语料,借助上面的方式,同时将正例和反例进行 word embedding 后送入 DNN 中,并采用 Pairwise ranking loss 的方式来建模正例和反例之间的语义差别。

上一种基于 DNN 的方法,在一定程度上已经可以解决词的语义相关性的问题,但对句子中的短距离依赖关系并没有做恰当的处理,比如无法区分‘甲到乙’和‘乙到甲’。

根据网络的评测结果,CNN 在处理短距离依赖关系上拥有更好的表现。

该图出自李航博士 Convolutional Neural Network Architectures for Matching Natural Language Sentences 中的 ARC-1:

其做法的基本思路是:将问句中的每个词,都做 word embedding,得到每个词所对应的固定长度的词向量,我们将问句表示成一个二维矩阵,每一行代表问句中相应词所对应的词向量。将这个二维矩阵进行多次卷积池化(卷积核的宽度与词向量维数相同,高度多为 2-5),最后得到一个一维特征向量,我们用 CNN 同时处理用户问句和标准问句,得到用户问句和库中标准问句所对应的特征向量。之后将这两个向量拼接起来送入多层感知机,由它来计算两个问句之间的匹配程度。

另外,有人指出,直接将两个特征向量拼接起来送入 MLP 会丢失边界信息,所以我们同时将特征向量 a、特征向量 b 和 aTb 同时送入 MLP 来计算相似度。

ARC-2 结构同样出自李航博士的上述论文:

ARC-2 相较于 ARC-1 的改进在于,ARC-2 尝试让两个句子在得到像 ARC-1 结果那样的高层抽象表示之前就进行相互作用,不再先分别通过 CNN 结构得到各自高层抽象表示。

在 ARC-1 模型中,一张 feature map 仅仅是一个列向量,或者说是一个一维矩阵,若干个列向量并在一起形成了 ARC-1 示意图中的模样(二维),而在 ARC-2 中,一张 feature map 成为了一个二维矩阵,若干个二维矩阵叠在一起形成了 ARC-2 示意图中的模样(三维)。

再之后的卷积、池化过程就与 CV 中 CNN 的卷积、池化过程类似了。与上一种方法类似的,在进行 1D convolution 时,涉及到两个词向量的连接,同样可以采用之前提到的做法来避免边界信息的丢失。

同样有人提出,在 ARC-2 结构中,直接采用传统的 word embedding 方法得到的词向量组成句子作为输入并不是最佳方案,最佳方案是采用已经过了 LSTM 的 hidden state。

我们可以采用 LSTM 结构训练一个 RNN 语言模型,如下图(以普通 RNN 为例):

从图中可以发现,当输出为‘e’时,hidden layer 向量中第三分量最大,而输出为‘l’时,第一分量最大,输出‘o’时,第二分量最大。我们可以将 RNN 的 hidden state 当做 Distributed Representation 的词向量来使用,将其作为 CNN(ARC-2)的输入,经测试可以得到更好的结果。

一个可信度高的分词结果是进行后续解析步骤的基本前提。

在 《浅谈自然语言处理基础(中)》 中,我介绍了一些经典的分词方法,不过都是些较早的研究成果。CRF方法是目前公认的效果最好的分词算法。

CRF 方法的思想非常直接,就是将分词问题看作一个序列标注问题,为句子中的每个字标注词位:

CRF 分词的过程就是对词位标注后,将 B 和 E 之间的字,以及 S 单字构成分词。网上有很多公开的基于 CRF 的分词工具。

至少存在四个角度可以在已有模型的基础上进一步提高解析质量,包括:问句归一化、用户状态、强化学习、多轮对话。

问句归一化的目的是对用户的输入具有较好的容错性。

简单的一些比如:简繁体归一化、全角半角归一化、标点符号处理和大小写归一化。复杂一些的比如汉语错别字的纠正。错别字自动纠正技术的应用非常广泛,而且在提高系统用户体验上能够发挥很大的作用,可以说性价比极高。

错别字纠正通常的做法是训练噪声信道模型。

我们可以对用户状态提取特征,在训练和解析时将其作为附加信息一并作为神经网络的输入。

可以被考虑的用户状态至少包含:

其次可以采用强化学习的方法,通过设计合理的奖赏机制,让解析系统在与环境互动的过程中自主进行策略更新。

强化学习与普通的监督学习方法相比存在两个明显的优点:一个是强化学习策略更新所需要的数据主要来源于与环境的交互/采样,而不是昂贵的人工标记数据;另一个是强化学习所产生的策略是根据奖赏机制自主迭代更新的,会有一些创新的做法,而不仅仅是模仿人类提供的‘标准’做法。

QA 问句解析中虽然不像游戏一样拥有‘策略创新玩法’这样的概念,但仍然可以在解析优化中帮助大量节省数据的人工标记开销。

应用强化学习方法的核心问题之一就是奖赏机制的设计,在 QA 的场景下设计奖赏机制,至少可以考虑以下几个角度:

多轮对话技术可以进一步提高与用户对话的连贯性。

我倾向于将多轮对话划分为‘封闭域’和‘开放域’两个场景,不同场景的实现思路也应该不同。

封闭域场景多轮对话的特点是:系统能解决的问题是一个有限集,多轮对话的目的是将用户引导到我们可以解决的问题上。

而开放域场景多轮对话的特点是:系统需要解决的问题是一个无限集,多轮对话的目的是依照上下文更准确的理解用户的需求。

在这样的指导思想下,封闭域多轮对话的核心思路应该是‘填槽’,而开放域多轮对话的核心思路是‘上下文替换’和‘主体补全’。

《浅谈智能搜索和对话式OS》 中介绍了网络利用 slot filling 技术来做 NLU,并利用‘上下文替换’和‘主体补全’来提高其 DuerOS 的对话能力的。

而更进一步的,填槽、上下文替换和主体补全的技术基础都是‘序列标注’,这里给出网络的两张 PPT:

根据网络的 PPT,采用双向 LSTM + CRF 做序列标注,是一个商业上可行的方法。

选择合适的人工接入时机同样是提高 QA 系统整体表现的方法之一,其核心问题在于平衡用户体验与投入成本。人工接入的越早,用户体验越好,但成本也越高。

这里简单提供蚂蚁金服小蚂答的做法:若系统连续提供给用户三次相同的回答,显示人工接入按钮;若用户连续询问两次客服类问题(比如‘我要人工’、‘你们客服电话多少’),显示人工接入按钮。

QA 系统的另一个重要组成部分是答案库。

答案录入的优化至少可以从三个角度来思考:

答案形式的多样性非常容易理解,比如小蚂答就支持包括文本、链接、图片、视频在内的多种答案形式。

个性化问题在上文解析优化中已有涉及(考虑用户状态的解析优化),上文的分析思路同样可以应用于答案录入,我们可以对不同注册时长、付费金额不同、进入路径不同等等的用户提供不同的个性化答案。

答案对用户的帮助看起来比较抽象,但也很容易理解。通俗的,我个人以‘地图级’、‘导航级’、‘专车级’来为 QA 系统的答案进行分级:

依照文章最初的人机对话系统场景分类,提供‘专车级’答案的 QA 系统,可以被称为 VPA 了。

对于答案库的优化,在答案完备录入(答案形式足够丰富、针对不同用户提供个性化的回答)的前提下,至少存在两个优化点:

上文解析优化中强化学习方法奖赏机制的设计思路也可以被用来发现答案库中存在的问题,因为大多数时候我们还很难明确的区分用户的负面反馈是针对解析系统还是答案本身。

除了从用户负面反馈中发现问题,针对上面的两个优化点,我们还应该有一些预防机制来提前避免这些问题的发生。

比如第一点‘答案库中标准答案存在错误’,如果不是录入人员的素质问题,最大的可能性就来源于答案的时效性,也即我们提供给了用户过期的答案。针对这个问题,我们可以在录入答案时特别添加‘临时’标签,以标明该答案具有较强的时效性,需要及时更新。

而针对第二点‘答案库中缺失某些问题的答案’,最大的可能性来源于突发事件以及业务的变动。比如系统服务宕机、系统上了新版本或者组织了一些运营活动,我们都应该针对这些可能引发用户疑惑的变动,提前准备一些 FAQ 并录入到答案库之中。

此外,当我们录入新问题及其标准答案的时候,需要注意新录入问题与原解析系统的适配性,以避免出现新录入的问题较难被解析系统解析到的情况。可采用的方法比如在录入新问题的同时,主动录入一些不同的问法作为初始训练语料(网易七鱼云客服的做法)。

‘贰’ QA七大手法是哪些

您要问的是不是品管七大手法?好像应该是QC七大手法,不是QA七大手法。

品管七大手法是常用的统计管理方法,又称为初级统计管理方法。它主要包括控制因果图、相关图、排列图、统计分析表、资料分层法、散布图等所谓的QC七工具其实,品质管制的方法可以分为两大类:一是建立在全面品质管制思想之上的品质管制;二是以数理统计方法为基础的质量控制。组织性的品质管制方法是指从组织结构,业务流程和人员工作方式的角度的方法,它建立在全员品质管制的思想之上,主要内容有制定质量方针,建立体系,开展QC小组活动,各部门质量责任的分担,进行质量诊断等。

统计质量控制是美国的贝尔电话实验所的休哈特(W.A.Shewhart)博士在1924出的控制图为起点,半个多世纪以来有了很大发展,现在这些方法可大致分为几类。

(1) 初级统计管理方法:又称为常用的统计管理方法。它主要包括控制图相关图、排列图、统计分析表、资料分层法、散布图等所谓的QC七工具(或叫品管七大手法)。运用这些工具,可以从经常变化的生产过程中,系统地收集与产品各种资料,并用统计方法对资料进行整理,加工和分析,进而画出各种图表资料指标,从中找出质量变化的规律,实现对质量的控制。日本着名的品质川馨曾说过:企业内95%的品质管制问题,可通过企业上上下下全体人员活用而得到解决。全面品质管制的推行,也离不开企业各级、各部门人员对这些工具的掌握与灵活应用。

(2) 中级统计管理方法:包括抽样调查方法、抽样检验方法、功能检查画法、方法研究等。这些方法不一定要企业全体人员都掌握,主要是有关技质管制部门的人使用。

(3) 高级统计管理方法:包括高级实验计画法、多变数解析法。这些方法主要用于杂的工程解析和质量解析,而且要借助于电脑手段,通常只是专业人员使用这就概要介绍常用的初级统计品质管制七大手法即所谓的“QC七工具”。

(一) 统计分析表

统计分析表是利用统计表对资料进行整理和初步分析原因的一种工具,其格式可多样,这种方法虽然较单,但实用有效。

(二) 数据分层法

资料分层法就是性质相同的,在同一条件下收集的资料归纳在一起,以便进析。因为在实际生产中,影响质量变动的因素很多如果不把这些困素区别开出变化的规律。资料分层可根据实际情况按多种方式进行。例如,按不同时间次进行分层,按使用设备的种类进行分层,按原材料的进料时间,原材料成分层,按检查手段,使用条件进行分层,按不同缺陷项目进行分层,等等。资常与上述的统计分析表结合使用。资料分层法的应用,主要是一种系统概念,即在于要想把相当复杂的资料进得懂得如何把这些资料加以有系统有目的加以分门别类的归纳及统计。科学管理强调的是以管理的技法来弭补以往靠经验靠视觉判断的管理的不足技法,除了建立正确的理念外,更需要有资料的运用,才有办法进行工作解析及采取正确的措施。如何建立原始的资料及将这些资料依据所需要的目的进行集计,也是诸多品管手法的最基础工作。

举个例子:我国航空市场近几年随着开放而竞争日趋激烈,航空公司为了争加强各种措施外,也在服务品质方面下功夫。我们也可以经常在航机上看到客的调查。此调查是通过调查表来进行的。调查表的设计通常分为地面的服务上的服务品质。地面又分为订票,候机;航机又分为空服态度,餐饮,卫生等些调查,将这些资料予以集计,就可得到从何处加强服务品质了。

(三)排列图(柏拉图)

排列图又称为柏拉图,由此图的发明者19世纪义大利经济学家柏拉图(Pareto)而得名。柏拉图最早用排列图分析社会财富分布的状况,他发现当时义大利在20%的人手,后来人们发现很多场合都服从这一规律,于是称之为Pareto。美国品质管制专家朱兰博士运用柏拉图的统计图加以延伸将其用于品质管制分析和寻找影响质量主原因素的一种工具,其形式用双直角坐标图,左边纵数(如件数金额等),右边纵坐标表示频率(如百分比表示)。分折线表示累横坐标表示影响质量的各项因素,按影响程度的大小(即出现频数多少)从列。通过对排列图的观察分析可抓住影响质量的主要因素。这种方法实际上不管制中,在其他许多管理工作中,例如在库存管理中,都有是十分有用的。在品质管制过程中,要解决的问题很多,但往往不知从哪里着手,但事实上大部分的问题,只要能找出几个影响较大的原因,并加以处置及控制,就可解决问题的。柏拉图是根据归集的资料,以不良原因,不良状况发生的现象,有系统地加以识别分类,计算出各专案别所产生的资料(如不良率,损失金额)及所占的比例,按照大小顺序排列,再加上累积值的图形。在工厂或办公室,把低效率,缺损,制品不良等损失按其原因别或现象损失金额的80%以上的专案加以追究处理,这就是所谓的柏拉图分析。柏拉图的使用要以层别法的专案别(现象别)为前提,依经顺位调整过后的画制成柏拉图。

柏拉图分析的步骤;

(1) 将要处置的事,以状况(现象)或原因加以层别。

(2) 纵轴虽可以表示件数,但最好以金额表示比较强烈。

(3) 决定搜集资料的期间,自何时至何时,作为柏拉图资料的依据,期限期。

(4) 各专案依照合半之大小顺位左至右排列在横轴上。

(5) 绘上柱状图。

(6) 连接累积曲线。

柏拉图法(重点管制法),提供了我们在没法面面俱到的状况下,去抓重要的事情键的事情,而这些重要的事情又不是靠直觉判断得来的,而是有资料依据的来加强表示。也就是层别法提供了统计的基础,柏拉图法则可帮助我们抓住重要事情。

(四)因果分析图

因果分析图是以结果作为特性,以原因作为因素,在它们之间用箭头联系表示因果关系。因果分析图是一种充分发动员工动脑筋,查原因,集思广益的好办法,于工作小组中实行质量的民主管理。当出现了某种质量问题,未搞清楚原因问题。发动大家寻找可能的原因,使每个人都畅所欲言,把所有可能的原因都列出称所谓因果分析图,就是将造成某项结果的众多原因,以系统的方式图解,即以结果(特性)与原因(因素)之间的关系。其形状像鱼骨,又称鱼骨图。某项结果之形成,必定有原因,应设法利用图解法找出其因。首先提出了这个方法的是日本品管权威石川馨博士,所以特性原因图又称[石川图]。因果分析图,可使用在一般管理及工作改善的各种阶段,特别是树立意识的初期,易于使问题的原因明朗化设计步骤解决问题。

(1) 果分析图使用步骤

步骤1:集合有关人员。召集与此问题相关的,有经验的人员,人数最好4-10人。

步骤2:挂一张大白纸,准备2-3支色笔。

步骤3:由集合的人员就影响问题的原因发言,发言内容记入图上,中途不可批问。(脑力激荡法)

步骤4:时间大约1个小时,搜集20-30个原因则可结束。

步骤5:就所搜集的原因,何者影响最大,再由大轮流发言,经大家磋商后大予圈上红色圈。

步骤6:与步骤5一样,针对已圈上一个红圈的,若认为最重要的可以再圈上圈。

步骤7:重新画一张原因图,未上圈的予于去除,圈数愈多的列为最优先处。因果分析图提供的是抓取重要原因的工具,所以参加的人员应包含对此项工作具有者,才易秦效。

(2)因果分析图与柏拉图之使用

建立柏拉图须先以层别建立要求目的之统计表。建立柏拉图之目的,在于掌握影

较大的重要少数项目。再利用特性原因图针对这些项目形成的原因逐予于探

改善对策。所以因果分析图可以单独使用,也可连接柏拉图使用。

(3) 因果分析图再分析

要对问题形成的原因追根究底,才能从根本上解决问题。形成问题之主要原因找出后,再以实验设计的方法进行实验分析,拟具体实验方法,找出最佳工作方法或许能得以彻底解决,这是解决问题,更是预防问题。任何一个人,任何一个企业均有它追求的目标,但在追求目标的过程中,总多有形与无形的障碍,而这些障碍是什麽,这些障碍何于形成,这些障碍如何破解等,就是原因分析图法主要的概念。一个管理人员,在他的管理工作范围内所追求的目标,假如加以具体的归纳知从项目来说不是很多。然而就每个追求的项目来说,都有会有影响其达成目的的主要原因及次要原因,这些原因就是阻碍你达成工作的变数。如何将追求的项目一一地罗列出来,并将影响每个项目达成的主要原因及次要原因也整理出来,并使用因果分析图来表示,并针对这些原因有计划地加以强化,将会使工作更加得心应手。同样地,有了这些原因分析图,即使发生问题,在解析问题的过程中,也能更快速可靠。

(五)直方图

直方图又称柱状图,它是表示资料变化情况的一种主要工具。用直方图可以的资料,解析出规则性,比较直观地看出产品质量特性的分布状态,对于资分布状况一目了然,便于判断其总体质量分布情况。在制作直方图时,牵涉科学的概念,首先要对资料进行分组,因此如何合理分组是其中的关键问题。按组距相等的原则进行的两个关键数位是分组数和组距。

(六)散布图

散布图又叫相关图,它是将两个可能相关的变数资料用点画在座标图上,用成对的资料之间是否有相关性。这种成对的资料或许是特性一原因,特性一特性一原因的关系。通过对其观察分析,来判断两个变数之间的相关关系。这种生产中也是常见的,例如热处理时淬火温度与工件硬度之间的关系,某种元素在材料中的含量与材料强度的关系等。这种关系虽然存在,但又难以用精确的公式或函示,在这种情况下用相关图来分析就是很方便的。假定有一对变数x 和y,x影响因素,y 表示某一质量特征值,通过实验或收集到的x 和y 的资料,上用点表示出来,根据点的分布特点,就可以判断x和y 的相关情况。在我们的生活及工作中,许多现象和原因,有些呈规则的关连,有些呈不规则连。我们要了解它,就可借助散布图统计手法来判断它们之间的相关关系。

(七)控制图

控制图又称为管制图。由美国的贝尔电话实验所的休哈特(W.A.Shewhart)博士在首先提出管制图使用后,管制图就一直成为科学管理的一个重要工具,特别方面成了一个不可或缺的管理工具。它是一种有控制界限的图,用来区分引起的原因是偶然的还是系统的,可以提供系统原因存在的资讯,从而判断生产过于受控状态。控制图按其用途可分为两类,一类是供分析用的控制图,用控制生产过程中有关质量特性值的变化情况,看工序是否处于稳定受控状;再一类的控制图,主要用于发现生产过程是否出现了异常情况,以预防产生不合格品。统计管理方法是进行质量控制的有效工具,但在应用中必须注意以下几个问题,否则就得不到应有的效果。

这些问题主要是:

1 )数据有误。资料有误可能是成的,一是人为的使用有误资料,二是由于未真正掌握统计方法;2 )资料的采集方法不正确。如果抽样方法本身有误则其后的分析方法再正确也是无用的;

3 )记录抄写有误;

4 )异常值的处理。通常在生产过程取得的资料中总是含有一些的,它们会导致分析结果有误。

以上概要介绍了七种常用初级统计品质管制七大手法即所谓的“QC七工具”,集中体现了品质管制的“以事实和资料为基础进行判断和管理”的特点。最后要说明的是,这些方法看起来都比较简单,但能够在实际工作中正确灵活地应用并不是简单的事。

阅读全文

与qa的分析方法相关的资料

热点内容
韭菜刷油的最佳方法 浏览:811
用什么方法可以治疗右眼皮跳 浏览:761
电脑打击垫使用方法 浏览:763
褥子潮湿如何解决方法 浏览:330
如何成为漂亮的女孩方法 浏览:397
腺肌症治疗的最好方法如何治 浏览:26
脲甲醛的检测方法 浏览:29
绿茶充氮冷藏最佳方法 浏览:704
声音信号合成常用方法 浏览:428
用简便方法计算7000125 浏览:603
diy帽子图片和制作方法 浏览:608
拖钓pe线与尼龙线连接方法 浏览:310
水泥氧化镁的检验方法视频 浏览:460
牙齿松动治疗方法 浏览:169
自动电热水壶安装方法 浏览:138
香欣源精油使用方法 浏览:420
家用空调安装方法 浏览:64
问卷中的间接表述方法有哪些 浏览:814
类风湿拔罐治疗方法 浏览:97
万能护肤方法视频 浏览:15