书栈网 · BookStack 本次搜索耗时 0.019 秒,为您找到 258 个相关结果.
  • Angel中的损失函数

    Angel中的损失函数 1. Angel中的损失函数 2. Angel中Loss的实现 3. Loss Function的Json 3.1 无参数的损失函数 3.2 参数的损失函数 Angel中的损失函数 1. Angel中的损失函数 Angel中有丰富的损失函数, 可分为两类 分类损失函数 回归损失函数 分类损失函数如下表所示:...
  • Angel中的损失函数

    Angel中的损失函数 1. Angel中的损失函数 2. Angel中Loss的实现 3. Loss Function的Json 3.1 无参数的损失函数 3.2 参数的损失函数 Angel中的损失函数 1. Angel中的损失函数 Angel中有丰富的损失函数, 可分为两类 分类损失函数 回归损失函数 分类损失函数如下表所示:...
  • Angel中的传输函数

    Angel中的传递函数 1. Angel中的传递函数有: 2. 传递函数的json表示 2.1 无参数的传递函数 2.2 有参数的传递函数 Angel中的传递函数 1. Angel中的传递函数有: 名称 表达式 说明 Sigmoid 将任意实数变成概率 tanh 将任意实数变成-1到1之间的数 ...
  • Angel中的学习率Decay

    Angel 中的学习率Decay 1. ConstantLearningRate 2. StandardDecay 3. CorrectionDecay 4. WarmRestarts Angel 中的学习率Decay Angel参考TensorFlow实现了多种学习率Decay方案, 用户可以根据需要选用. 在描述具体Decay方案前, 先...
  • Angel中的计算图

    Angel 中的计算图 1. 什么是计算图 2. 计算图的构建 2.1 层的基本结构 2.2 AngelGraph的基本结构 2.3 数据入口PlaceHolder 3. Angel中计算图的运行原理 3.1 运行状态机 3.2 Angel中Graph的训练过程 Angel 中的计算图 1. 什么是计算图 计算图是主流深度学习框架...
  • Angel中的计算图

    Angel 中的计算图 1. 什么是计算图 2. 计算图的构建 2.1 层的基本结构 2.2 AngelGraph的基本结构 2.3 数据入口PlaceHolder 3. Angel中计算图的运行原理 3.1 运行状态机 3.2 Angel中Graph的训练过程 Angel 中的计算图 1. 什么是计算图 计算图是主流深度学习框架...
  • [Spark on Angel] Sparse LR with FTRL

    [Spark on Angel] Sparse LR with FTRL 1. 算法原理 2. Async mini-batch FTRL 3. 运行和性能评测 References [Spark on Angel] Sparse LR with FTRL 目前很多CTR预估的业务场景中,不仅训练样本规模达到10亿级别,而且特征的规模也达到十...
  • Migration from Angel 1.1.x

    495 2019-12-14 《Angel v2.x Document》
    Rationale - Why a new Version? Framework Changelog 2.0.0 Migration Guide
  • Linear Regression

    Linear Regression 1. 算法介绍 2. 分布式实现 on Angel 3. 运行 & 性能 输入格式 参数 性能 Linear Regression 线性回归模型(linear regression model)利用最小二乘函数对一个或多个自变量与一个因变量之间的关系进行建模,是一种常见的预测模型。 1. 算...
  • Yarn运行

    Angel On Yarn运行 1. 运行环境准备 2. Angel任务运行示例 Angel On Yarn运行 由于业界很多公司的大数据平台,都是基于Yarn搭建,所以Angel目前的分布式运行是基于Yarn,方便用户复用现网环境,而无需任何修改。 鉴于Yarn的搭建步骤和机器要求,不建议在小机器上,进行尝试该运行。如果一定要运行,最少...