已经是最新一篇文章了!
已经是最后一篇文章了!
超详细
- Algorithm(算法): 一组用于解决问题或完成任务的规则或步骤。
- Artificial Intelligence(人工智能): 使机器具有类似人类智能的技术。
- Machine Learning(机器学习): 让计算机从数据中自动改进性能的一类算法。
- Neural Network(神经网络): 模仿人脑结构的计算模型,用于模式识别和分类。
- Deep Learning(深度学习): 一种基于多层神经网络的机器学习方法。
- Supervised Learning(监督学习): 使用标记数据训练模型的方法。
- Unsupervised Learning(无监督学习): 使用未标记数据进行训练的方法。
- Reinforcement Learning(强化学习): 通过与环境交互并从中获得反馈来学习的算法。
- Feature(特征): 用于模型训练的数据属性或变量。
- Overfitting(过拟合): 模型过于复杂以至于很好地拟合训练数据但对新数据表现不佳的现象。
- Underfitting(欠拟合): 模型过于简单以至于无法捕捉数据中的模式的现象。
- Classification(分类): 将输入数据分配到特定类别的任务。
- Regression(回归): 预测连续数值输出的任务。
- Clustering(聚类): 将数据分组为相似的子集的任务。
- Natural Language Processing(自然语言处理): 计算机理解和生成人类语言的能力。
- Computer Vision(计算机视觉): 计算机从图像或视频中获取信息的能力。
- Dimensionality Reduction(降维): 减少特征数量以简化模型的过程。
- Hyperparameter(超参数): 需要在模型训练之前设置的参数。
- Model Evaluation(模型评估): 评估模型性能的过程。
- Cross-Validation(交叉验证): 评估模型泛化能力的一种技术。
- Data Preprocessing(数据预处理): 在模型训练之前清洗和准备数据的过程。
- Training Set(训练集): 用于训练模型的数据集。
- Test Set(测试集): 用于评估模型性能的数据集。
- Validation Set(验证集): 用于调整模型超参数的数据集。
- Loss Function(损失函数): 衡量模型预测与实际结果差异的函数。
- Gradient Descent(梯度下降): 一种优化算法,用于最小化损失函数。
- Backpropagation(反向传播): 用于训练神经网络的算法,通过计算梯度更新权重。
- Convolutional Neural Network (CNN)(卷积神经网络): 一种特别适用于图像处理的神经网络。
- Recurrent Neural Network (RNN)(循环神经网络): 一种用于处理序列数据的神经网络。
- Long Short-Term Memory (LSTM)(长短期记忆网络): 一种RNN架构,能够捕捉长时间依赖关系。
- Generative Adversarial Network (GAN)(生成对抗网络): 由生成器和判别器组成的网络,用于生成新数据。
- Transfer Learning(迁移学习): 利用在一个任务中获得的知识来帮助解决另一个任务。
- Ensemble Learning(集成学习): 结合多个模型的预测以提高性能。
- Boosting(提升): 一种集成学习方法,通过加权组合多个弱学习器来提高性能。
- Bagging(袋装法): 一种集成学习方法,通过对数据集进行重采样来训练多个模型。
- Random Forest(随机森林): 由多个决策树组成的集成模型。
- Support Vector Machine (SVM)(支持向量机): 用于分类和回归的强大算法。
- Principal Component Analysis (PCA)(主成分分析): 一种用于降维的统计方法。
- K-Means Clustering(K均值聚类): 一种将数据分成K个聚类的无监督学习算法。
- Anomaly Detection(异常检测): 识别不符合预期模式的数据点的任务。
- Hyperparameter Tuning(超参数调优): 通过系统地选择最佳参数组合来优化模型性能的过程。
- Grid Search(网格搜索): 一种系统地遍历多种超参数组合的调优方法。
- Random Search(随机搜索): 一种随机选择超参数组合的调优方法。
- Bayesian Optimization(贝叶斯优化): 一种基于概率模型的优化方法,用于高效地调优超参数。
- Early Stopping(提前停止): 防止过拟合的一种技术,通过监控验证集误差来决定何时停止训练。
- Dropout(丢弃法): 防止神经网络过拟合的一种正则化技术,通过随机忽略一部分神经元。
- Batch Normalization(批量归一化): 加速训练并稳定神经网络的一种技术,通过在每个小批量数据上归一化输入层。
- Activation Function(激活函数): 用于神经网络中引入非线性的函数,如ReLU、Sigmoid和Tanh。
- Learning Rate(学习率): 决定每次更新权重时步长大小的超参数。
- Epoch(周期): 完整遍历整个训练数据集一次的过程。
- Batch Size(批量大小): 每次更新模型时使用的训练样本数量。
- Stochastic Gradient Descent (SGD)(随机梯度下降): 一种每次仅使用一个样本更新模型的梯度下降变体。
- Mini-batch Gradient Descent(小批量梯度下降): 结合批量和随机梯度下降的方法,每次使用小批量数据更新模型。
- Regularization(正则化): 防止过拟合的一种技术,通过惩罚模型复杂度。
- L1 Regularization(L1正则化): 通过加总权重绝对值来惩罚模型复杂度。
- L2 Regularization(L2正则化): 通过加总权重平方来惩罚模型复杂度。
- Feature Engineering(特征工程): 创建或转换数据特征以提升模型性能的过程。
- Feature Selection(特征选择): 选择对模型性能贡献最大的特征的过程。
- Confusion Matrix(混淆矩阵): 用于评价分类模型性能的矩阵,显示预测结果的正确和错误分类。
- Precision(精确率): 衡量模型正确识别正例的能力。
- Recall(召回率): 衡量模型识别出所有正例的能力。
- F1 Score(F1评分): 精确率和召回率的调和平均,用于评估模型性能。
- ROC Curve(ROC曲线): 显示分类模型在不同阈值下性能的曲线。
- AUC (Area Under Curve)(曲线下面积): ROC曲线下的面积,用于评估分类模型性能。
- Semi-supervised Learning(半监督学习): 结合少量标记数据和大量未标记数据进行训练。
- Self-supervised Learning(自监督学习): 从未标记数据中自动生成标签来进行训练。
- Multi-task Learning(多任务学习): 同时学习多个相关任务,以共享信息和提高性能。
- Transfer Learning(迁移学习): 将在一个任务中学到的知识应用到另一个相关任务中。
- Federated Learning(联邦学习): 在分布式设备上训练模型,数据保留在本地以保护隐私。
- Meta-learning(元学习): 学习如何更有效地学习新任务,提高模型的适应能力。
版权声明: 如无特别声明,本文版权归 sshipanoo 所有,转载请注明本文链接。
(采用 CC BY-NC-SA 4.0 许可协议进行授权)
本文标题:《 人工智能相关术语中英文对照 》
本文最后一次更新为 天前,文章中的某些内容可能已过时!