zzzzhhh commited on
Commit
ce540b1
·
1 Parent(s): 0529317

Delete llama_pre_txt_data.txt

Browse files
Files changed (1) hide show
  1. llama_pre_txt_data.txt +0 -50
llama_pre_txt_data.txt DELETED
@@ -1,50 +0,0 @@
1
- 机器学习 (ML) 是一个致力于理解和构建让机器“学习”的方法的领域,即利用数据提高计算机在某些任务集上的性能的方法。
2
- 机器学习算法基于样本数据(称为训练数据)构建模型,以便在没有明确编程的情况下做出预测或决策。机器学习算法用于各种应用,例如医学、电子邮件过滤、语音识别、农业和计算机视觉,在这些应用中很难或无法开发传统算法来执行所需的任务。
3
- 机器学习的一个子集与计算统计密切相关,计算统计侧重于使用计算机进行预测,但并非所有机器学习都是统计学习。数学优化的研究为机器学习领域提供了方法、理论和应用领域。数据挖掘是一个相关的研究领域,侧重于通过无监督学习进行探索性数据分析。
4
- 机器学习的一些实现以模仿生物大脑工作的方式使用数据和神经网络。
5
- 在跨业务问题的应用中,机器学习也被称为预测分析。
6
- 学习算法的工作基础是过去运作良好的策略、算法和推论在未来可能会继续运作良好。这些推论有时是显而易见的,例如“在过去的 10,000 天里,太阳每天早上都升起,明天早上它可能也会升起”。其他时候,它们可能更细微,例如“X% 的科具有地理上不同的颜色变异物种,因此存在未被发现的黑天鹅的可能性为 Y%”。
7
- 机器学习程序无需明确编程即可执行任务。它涉及计算机从提供的数据中学习,以便它们执行某些任务。对于分配给计算机的简单任务,可以编写算法告诉机器如何执行解决手头问题所需的所有步骤;在计算机方面,不需要学习。对于更高级的任务,人工创建所需算法可能具有挑战性。在实践中,事实证明,帮助机器开发自己的算法比让人类程序员指定每个需要的步骤更为有效。
8
- 机器学习学科采用各种方法来教计算机完成没有完全令人满意的算法可用的任务。在存在大量潜在答案的情况下,一种方法是将一些正确答案标记为有效。然后,这可以用作计算机的训练数据,以改进它用于确定正确答案的算法。例如,为了训练数字字符识别任务的系统,经常使用手写数字的 MNIST 数据集。
9
- 机器学习一词于 1959 年由 IBM 员工、计算机游戏和人工智能领域的先驱 Arthur Samuel 创造。这个时期也使用了同义词自学计算机。
10
- 到 1960 年代初,雷神公司开发了一种名为 Cybertron 的带穿孔磁带记忆的实验性“学习机”,用于使用基本的强化学习分析声纳信号、心电图和语音模式。它由人类操作员/教师反复“训练”以识别模式,并配备了一个“错误”按钮以使其重新评估错误的决定。 1960 年代机器学习研究的代表作是 Nilsson 的 Learning Machines 一书,主要涉及模式分类的机器学习。正如 Duda 和 Hart 在 1973 年所描述的那样,与模式识别相关的兴趣一直持续到 1970 年代。1981 年发表了一份关于使用教学策略的报告,以便神经网络学习识别 40 个字符(26 个字母、10 个数字和 4 个特殊符号) ) 从计算机终端。
11
- Tom M. Mitchell 为机器学习领域研究的算法提供了一个被广泛引用的、更正式的定义:在 T 中,由 P 衡量,随着经验 E 的增加而提高。”这种对机器学习所涉及任务的定义提供了一个基本的操作定义,而不是用认知术语来定义该领域。这是继 Alan Turing 在他的论文“Computing Machinery and Intelligence”中提出的建议之后,其中提出了“机器可以思考吗?”的问题。被问题“机器能做我们(作为思维实体)能做的事吗?”所取代。
12
- 现代机器学习有两个目标,一个是根据已经开发的模型对数据进行分类,另一个目的是根据这些模型对未来结果进行预测。一种特定于数据分类的假设算法可以使用痣的计算机视觉和监督学习,以训练它对癌性痣进行分类。用于股票交易的机器学习算法可以告知交易者未来的潜在预测。
13
- 作为一项科学事业,机器学习源于对人工智能 (AI) 的探索。在人工智能作为一门学科的早期,一些研究人员对让机器从数据中学习很感兴趣。他们试图用各种符号方法以及当时称为“神经网络”的方法来解决这个问题;这些大多是感知器和其他模型,后来发现它们是广义线性统计模型的改造。概率推理也被采用,特别是在自动化医疗诊断中: 488 
14
- 然而,越来越强调基于逻辑的、基于知识的方法导致了人工智能和机器学习之间的裂痕。概率系统受到数据采集和表示的理论和实践问题的困扰: 488 到 1980 年,专家系统开始主导人工智能,统计数据失宠。基于符号/知识的学习的工作确实在 AI 中继续进行,导致归纳逻辑编程,但更多的统计研究现在在 AI 本身���领域之外,在模式识别和信息检索中。 708 – 710, 755 神经网络研究几乎同时被人工智能和计算机科学所放弃。这条路线也被其他学科的研究人员(包括 Hopfield、Rumelhart 和 Hinton)延续到 AI/CS 领域之外,称为“联结主义”。他们的主要成功出现在 1980 年代中期,重新发明了反向传播: 25 
15
- 机器学习 (ML) 经过重组并被公认为自己的领域,在 1990 年代开始蓬勃发展。该领域将其目标从实现人工智能转变为解决可解决的实际问题。它将重点从它从人工智能那里继承的符号方法转移到从统计学、模糊逻辑和概率论中借用的方法和模型上。
16
- 机器学习和数据挖掘通常采用相同的方法并且有很大的重叠,但是机器学习侧重于预测,基于从训练数据中学习的已知属性,数据挖掘侧重于发现数据中(以前)未知的属性(这是数据库中知识发现的分析步骤)。数据挖掘使用了许多机器学习方法,但目标不同;另一方面,机器学习也采用数据挖掘方法作为“无监督学习”或作为预处理步骤来提高学习者的准确性。这两个研究团体(通常有单独的会议和期刊,ECML PKDD 是一个主要例外)之间的大部分混淆来自他们使用的基本假设:在机器学习中,性能通常根据以下能力进行评估:再现已知知识,而在知识发现和数据挖掘(KDD)中,关键任务是发现以前未知的知识。根据已知知识进行评估,无信息(无监督)方法很容易被其他监督方法超越,而在典型的 KDD 任务中,由于训练数据不可用,无法使用监督方法。
17
- 机器学习也与优化有着密切的联系:许多学习问题被表述为对训练样本集的某些损失函数的最小化。损失函数表示被训练模型的预测与实际问题实例之间的差异(例如,在分类中,人们想为实例分配标签,而模型被训练为正确预测一组预先分配的标签例子)。
18
- 优化和机器学习之间的区别源于泛化的目标:优化算法可以最小化训练集上的损失,而机器学习关注的是最小化未见样本上的损失。表征各种学习算法的泛化是当前研究的一个活跃主题,尤其是对于深度学习算法。
19
- 就方法而言,机器学习和统计学是密切相关的领域,但它们的主要目标却截然不同:统计学从样本中得出总体推论,而机器学习则发现可概括的预测模式。根据 Michael I. Jordan 的说法,机器学习的思想,从方法论原则到理论工具,在统计学上都有很长的历史。他还建议将数据科学一词作为占位符来称呼整个领域。
20
- Leo Breiman 区分了两种统计建模范式:数据模型和算法模型,其中“算法模型”或多或少意味着机器学习算法,如随机森林。
21
- 一些统计学家采用了机器学习的方法,形成了一个他们称之为统计学习的组合领域。
22
- 源自无序系统的根深蒂固的物理学的分析和计算技术可以扩展到大规模问题,包括机器学习,例如,分析深度神经网络的权重空间。因此,统计物理学正在医学诊断领域找到应用。
23
- 学习者的一个核心目标是从其经验中进行概括。在这种情况下,泛化是指学习机在经历了学习数据集后,能够准确地执行新的、未见过的示例/任务的能力。训练示例来自一些通常未知的概率分布(被认为代表出现的空间),学习者必须建立关于该空间的通用模型,使其能够在新案例中产生足够准确的预测。
24
- 机器学习算法及其性能的计算分析是理论计算机科学的一个分支,通过可能近似正确学习 (PAC) 模型被称为计算学习理论。因为训练集是有限的,未来是不确定的,学习理论通常不能保证算法的性能。相反,性能的概率界限非常普遍。偏差-方差分解是量化泛化误差的一种方法。
25
- 为了在泛化的上下文中获得最佳性能,假设的复杂性应与数据基础函数的复杂性相匹配。如果假设不如函数复杂,则模型欠拟合数据。如果模型的复杂性相应增加,那么训练误差就会减少。但如果假设过于复杂,那么模型容易过拟合,泛化能力会变差。
26
- 除了性能界限之外,学习理论家还研究学习的时间复杂度和可行性。在计算学习理论中,如果计算可以在多项式时间内完成,则该计算被认为是可行的。时间复杂度结果有两种: 正结果表明某类函数可以在多项式时间内学习。负面结果表明某些类不能在多项式时间内学习。
27
- 机器学习方法传统上分为三大类,它们对应于学习范式,具体取决于学习系统可用的“信号”或“反馈”的性质:
28
- 监督学习:向计算机展示由“老师”给出的示例输入及其所需的输出,目标是学习将输入映射到输出的一般规则。
29
- 无监督学习:没有为学习算法提供标签,��它自行寻找输入中的结构。无监督学习本身可以是一个目标(发现数据中隐藏的模式)或达到目的的一种手段(特征学习)。
30
- 强化学习:计算机程序与动态环境交互,在动态环境中它必须执行特定目标(例如驾驶车辆或与对手玩游戏)。当它在它的问题空间中导航时,程序会得到类似于奖励的反馈,它试图最大化这种反馈。尽管每种算法都有优点和局限性,但没有一种算法适用于所有问题。
31
- 监督学习算法为一组包含输入和所需输出的数据构建数学模型。该数据称为训练数据,由一组训练示例组成。每个训练示例都有一个或多个输入和所需的输出,也称为监督信号。在数学模型中,每个训练样例由一个数组或向量表示,有时也称为特征向量,训练数据由一个矩阵表示。通过目标函数的迭代优化,监督学习算法学习可用于预测与新输入相关的输出的函数。最佳函数将允许算法正确确定不属于训练数据的输入的输出。随着时间的推移提高其输出或预测准确性的算法被认为已经学会了执行该任务。
32
- 监督学习算法的类型包括主动学习、分类和回归。当输出被限制为一组有限的值时使用分类算法,当输出可能具有范围内的任何数值时使用回归算法。例如,对于过滤电子邮件的分类算法,输入将是收到的电子邮件,输出将是保存电子邮件的文件夹的名称。
33
- 相似性学习是监督机器学习的一个领域,与回归和分类密切相关,但目标是使用相似性函数从示例中学习,该相似性函数衡量两个对象的相似程度或相关程度。它在排名、推荐系统、视觉身份跟踪、人脸验证和说话人验证方面都有应用。
34
- 无监督学习算法采用一组仅包含输入的数据,并在数据中查找结构,例如数据点的分组或聚类。因此,算法从未标记、分类或分类的测试数据中学习。无监督学习算法不是响应反馈,而是识别数据中的共性,并根据每个新数据中是否存在此类共性做出反应。无监督学习的一个核心应用是在统计学中的密度估计领域,例如寻找概率密度函数。尽管无监督学习包括涉及总结和解释数据特征的其他领域。无监督学习算法简化了对泛基因组感兴趣基因的基于大插入缺失单倍型的调查和绘图过程。
35
- 聚类分析是将一组观察值分配到子集(称为聚类)中,以便根据一个或多个预先指定的标准,同一聚类内的观察值相似,而从不同聚类中提取的观察值不同。不同的聚类技术对数据结构做出不同的假设,通常由一些相似性度量定义和评估,例如,通过内部紧凑性,或同一集群成员之间的相似性,以及分离,集群之间的差异。其他方法基于估计的密度和图形连通性。
36
- 半监督学习介于无监督学习(没有任何标记的训练数据)和监督学习(具有完全标记的训练数据)之间。一些训练示例缺少训练标签,但许多机器学习研究人员发现,当未标记数据与少量标记数据结合使用时,可以显着提高学习准确性。
37
- 在弱监督学习中,训练标签是嘈杂的、有限的或不精确的;然而,这些标签通常更便宜,从而产生更大的有效训练集。
38
- 强化学习是机器学习的一个领域,涉及软件代理应如何在环境中采取行动以最大化累积奖励的某些概念。由于其普遍性,该领域在许多其他学科中都有研究,例如博弈论、控制论、运筹学、信息论、基于模拟的优化、多代理系统、群体智能、统计和遗传算法。在机器学习中,环境通常表示为马尔可夫决策过程 (MDP)。许多强化学习算法使用动态规划技术。强化学习算法不假定了解 MDP 的精确数学模型,并在精确模型不可行时使用。强化学习算法用于自动驾驶汽车或学习与人类对手玩游戏。
39
- 通过获取一组主变量来减少所考虑的随机变量数量的过程。换句话说,就是特征集降维的过程,也叫“特征个数”。大多数降维技术可以被认为是特征消除或提取。一种流行的降维方法是主成分分析 (PCA)。 PCA 涉及将高维数据(例如,3D)更改为更小的空间(例如,2D)。这导致数据的维度更小(2D 而不是 3D),同时在不更改数据的情况下保留模型中的所有原始变量。流形假说提出高维数据集位于低维流形上,许多降维技术都基于这一假设,从而引出了流形学习和流形正则化领域。
40
- 尽管机器学习在某些领域具有变革性,但机器学习程序往往无法提供预期的结果。造成这种情况的原因有很多:缺乏(合适的)数据、无法访问数据、数据偏见、隐私问题、任务和算法选择不当、工具和人员错误、缺乏资源以及评估问题。
41
- 2018 年,Uber 的自动驾驶汽车未能检测到���人,导致行人在碰撞后丧生。即使经过多年的时间和数十亿美元的投资,尝试通过 IBM Watson 系统在医疗保健中使用机器学习也未能实现。
42
- 机器学习已被用作一种策略来更新与系统评价相关的证据,并增加与生物医学文献增长相关的审稿人负担。虽然它在训练集方面有所改进,但它还没有发展到足以减轻工作量负担而又不限制研究结果本身的必要敏感性的程度。
43
- 机器学习方法尤其会受到不同数据偏差的影响。专门针对当前客户进行培训的机器学习系统可能无法预测未在培训数据中表示的新客户群的需求。当对人造数据进行训练时,机器学习很可能会发现社会中已经存在的宪法和无意识偏见。从数据中学习的语言模型已被证明包含类似人类的偏见。已发现用于犯罪风险评估的机器学习系统对黑人有偏见。 2015 年,谷歌照片经常将黑人标记为大猩猩,到 2018 年,这个问题仍然没有得到很好的解决,但据报道,谷歌仍在使用变通方法从训练数据中删除所有大猩猩,因此无法识别真正的大猩猩全部。在许多其他系统中也发现了识别非白人的类似问题。 2016 年,微软测试了一个从 Twitter 学习的聊天机器人,它很快就学会了种族主义和性别歧视的语言。由于这些挑战,机器学习的有效使用可能需要更长的时间才能在其他领域得到采用。包括李飞飞在内的人工智能科学家越来越多地表达了对机器学习公平性的关注,即减少机器学习中的偏见并推动其为人类造福,他提醒工程师“人工智能没有任何人工......它是它受到人们的启发,由人们创造,而且——最重要的是——它影响着人们。它是一种我们才刚刚开始理解的强大工具,这是一项意义重大的责任。”
44
- 学习者也可能因“学错课”而失望。一个玩具示例是,仅在棕色马和黑猫的图片上训练的图像分类器可能会得出结论,所有棕色斑块都可能是马。一个现实世界的例子是,与人类不同,当前的图像分类器往往不是主要从图片各组成部分之间的空间关系来做出判断,而是学习人类忽略但仍然与某些图像相关的像素之间的关系。真实对象的类型。在合法图像上修改这些模式可能会导致系统错误分类的“对抗性”图像。
45
- 对抗性漏洞也可能导致非线性系统或非模式扰动。有些系统非常脆弱,以至于改变单个对抗性像素可预测地导致错误分类。[需要引证]机器学习模型通常容易受到对抗性机器学习的操纵和/或逃避。
46
- 研究人员已经演示了如何将后门以不可检测的方式放置到通常由第三方开发和/或训练的分类机器学习模型中(例如,对于帖子的“垃圾邮件”类别和明显可见的“非垃圾邮件”类别)。各方可以更改任何输入的分类,包括在提供某种数据/软件透明度的情况下,可能包括白盒访问。
47
- 机器学习提出了许多伦理问题。在收集到的带有偏见的数据集上训练的系统可能会在使用时表现出这些偏见(算法偏见),从而使文化偏见数字化。例如,1988 年,英国种族平等委员会发现,圣乔治医学院一直在使用根据以前招生人员的数据训练的计算机程序,该程序拒绝了近 60 名女性或非女性候选人。 -欧洲冠冕堂皇的名字。使用来自具有种族主义招聘政策的公司的工作招聘数据可能会导致机器学习系统通过与以前的成功申请人的相似性对求职者进行评分来复制偏见。因此,负责任地收集系统使用的算法规则的数据和文档是机器学习的关键部分。
48
- 人工智能可以很好地在严重依赖数据和历史信息的技术领域做出决策。这些决定依赖于客观性和逻辑推理。因为人类语言包含偏见,所以在语言语料库上训练的机器也必然会学习这些偏见。
49
- 与个人偏见无关的其他形式的道德挑战在医疗保健中也有出现。医疗保健专业人员担心这些系统可能不是为了公众利益而设计的,而是作为创收机器。在美国尤其如此,那里长期存在既要改善医疗保健又要增加利润的道德困境。例如,算法可以设计为为患者提供不必要的测试或药物,算法的专有所有者持有股份。医疗保健中的机器学习有可能为专业人员提供额外的工具来为患者诊断、用药和规划康复路径,但这需要减轻这些偏见。
50
- 自 2010 年代以来,机器学习算法和计算机硬件的进步带来了更有效的方法来训练包含多层非线性隐藏单元的深度神经网络(机器学习的一个特定的狭窄子域)。到 2019 年,通常具有特定 AI 增强功能的图形处理单元 (GPU) 已经取代 CPU,成为训练大规模商业云 AI 的主要方法。 OpenAI 估算了从 AlexNet (2012) 到 AlphaZero (2017) 的最大深度学习项���中使用的硬件计算,发现所需的计算量增加了 300,000 倍,翻倍时间趋势线为 3.4 个月。