ActivationFunction.cpp 11.8 KB
Newer Older
1
/* Copyright (c) 2016 PaddlePaddle Authors. All Rights Reserve.
Z
zhangjinchao01 已提交
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License. */

#include "ActivationFunction.h"

#include <algorithm>
#include <iostream>
Y
Yu Yang 已提交
19
#include <memory>
Z
zhangjinchao01 已提交
20 21
#include <string>
#include <thread>
Y
Yu Yang 已提交
22
#include <type_traits>
Z
zhangjinchao01 已提交
23
#include "paddle/parameter/Argument.h"
Y
Yu Yang 已提交
24
#include "paddle/utils/ClassRegistrar.h"
Z
zhangjinchao01 已提交
25 26 27 28 29 30

#include "paddle/utils/Logging.h"

namespace paddle {

static ClassRegistrar<ActivationFunction> gActivationRegistrar;
Q
qijun 已提交
31 32 33 34 35 36
/**
 * @def ACTIVATION_CLASS_NAME
 * @brief Macro for getting derived activation class name
 * @note ACTIVATION_CLASS_NAME(softmax) softmax_;
 * means softmaxActivation softmax_;
 */
Z
zhangjinchao01 已提交
37
#define ACTIVATION_CLASS_NAME(ACTIVATION_NAME) ACTIVATION_NAME##Activation
Q
qijun 已提交
38 39 40 41
/**
 * @def BEGIN_DEFINE_ACTIVATION
 * @brief Macro for defining a devried activation class
 */
Z
zhangjinchao01 已提交
42 43 44 45 46 47 48
#define BEGIN_DEFINE_ACTIVATION(ACTIVATION_NAME)                             \
  class ACTIVATION_CLASS_NAME(ACTIVATION_NAME) : public ActivationFunction { \
  private:                                                                   \
    static const std::string name;                                           \
                                                                             \
  public:                                                                    \
    const std::string& getName() const { return name; }
Q
qijun 已提交
49 50 51 52
/**
 * @def END_DEFINE_ACTIVATION
 * @brief Macro for registering a derived activation class
 */
Z
zhangjinchao01 已提交
53
#define END_DEFINE_ACTIVATION(ACTIVATION_NAME)                     \
54 55
  }                                                                \
  ;                                                                \
Z
zhangjinchao01 已提交
56 57 58
  const std::string ACTIVATION_CLASS_NAME(ACTIVATION_NAME)::name = \
      #ACTIVATION_NAME;                                            \
  static InitFunction __reg_activation__##ACTIVATION_NAME([] {     \
59 60 61
    gActivationRegistrar                                           \
        .registerClass<ACTIVATION_CLASS_NAME(ACTIVATION_NAME)>(    \
            #ACTIVATION_NAME);                                     \
Z
zhangjinchao01 已提交
62 63 64 65 66 67 68 69 70 71
  });

/**
 * @brief The IdentityActivation class
 *
 * Do nothing when forward/backward.
 */
class IdentityActivation : public ActivationFunction {
public:
  static const std::string name;
Y
Yu Yang 已提交
72
  Error __must_check forward(Argument& act) {
73
    (void)act;
Y
Yu Yang 已提交
74
    return Error();
75
  }
Y
Yu Yang 已提交
76
  Error __must_check backward(Argument& act) {
77
    (void)act;
Y
Yu Yang 已提交
78
    return Error();
79
  }
Z
zhangjinchao01 已提交
80 81 82 83 84 85 86 87 88
  const std::string& getName() const { return name; }
};
const std::string IdentityActivation::name = "";
static InitFunction __reg_activation__identity([] {
  gActivationRegistrar.registerClass<IdentityActivation>("");
  gActivationRegistrar.registerClass<IdentityActivation>("linear");
});

/**
Q
qijun 已提交
89 90
 * @brief Sigmoid Activation
 * \f[
Z
zhangjinchao01 已提交
91
 * f(z) = \frac{1}{1+exp(-z)}
Q
qijun 已提交
92
 * \f]
Z
zhangjinchao01 已提交
93 94
 */
BEGIN_DEFINE_ACTIVATION(sigmoid)
Y
Yu Yang 已提交
95
Error __must_check forward(Argument& act) {
96
  act.value->sigmoid(*act.value);
Y
Yu Yang 已提交
97
  return Error();
98
}
Y
Yu Yang 已提交
99
Error __must_check backward(Argument& act) {
100
  act.grad->sigmoidDerivative(*act.value);
Y
Yu Yang 已提交
101
  return Error();
102
}
Z
zhangjinchao01 已提交
103 104 105
END_DEFINE_ACTIVATION(sigmoid)

/**
Q
qijun 已提交
106 107
 * @brief Softmax Activation
 * \f[
Z
zhangjinchao01 已提交
108
 * P(y=j|x) = \frac{e^{x^Tw_j}}{\sum^K_{k=1}e^{x^Tw_k}}
Q
qijun 已提交
109
 * \f]
Z
zhangjinchao01 已提交
110 111 112 113 114 115 116
 */
BEGIN_DEFINE_ACTIVATION(softmax)
private:
MatrixPtr sftMaxSum_;
MatrixPtr sftMaxDot_;

public:
Y
Yu Yang 已提交
117
Error __must_check forward(Argument& act) {
118
  act.value->softmax(*act.value);
Y
Yu Yang 已提交
119
  return Error();
120
}
Z
zhangjinchao01 已提交
121

Y
Yu Yang 已提交
122
Error __must_check backward(Argument& act) {
Z
zhangjinchao01 已提交
123 124 125 126 127 128 129
  MatrixPtr outputV = act.value;
  MatrixPtr outputG = act.grad;

  if (outputG->useGpu()) {
    outputG->softmaxBackward(*outputV);
  } else {
    SetDevice device(act.deviceId);
130 131
    Matrix::resizeOrCreate(sftMaxDot_,
                           outputG->getHeight(),
Z
zhangjinchao01 已提交
132
                           outputG->getWidth(),
133 134 135 136 137 138 139
                           /* trans */ false,
                           useGpu(act.deviceId));
    Matrix::resizeOrCreate(sftMaxSum_,
                           outputG->getHeight(),
                           1,
                           /* trans */ false,
                           useGpu(act.deviceId));
Z
zhangjinchao01 已提交
140 141 142 143 144 145

    sftMaxDot_->dotMul(*outputG, *outputV);
    sftMaxSum_->colMerge(*sftMaxDot_);

    act.grad->softmaxDerivative(*act.value, *sftMaxSum_);
  }
Y
Yu Yang 已提交
146
  return Error();
Z
zhangjinchao01 已提交
147 148 149
}
END_DEFINE_ACTIVATION(softmax)

Q
qijun 已提交
150 151 152 153 154
/**
 * @brief Sequence_softmax Activation
 * @note Softmax on all frames of one sequence.
 * Width of frame must be one.
 */
Z
zhangjinchao01 已提交
155 156 157 158 159 160
BEGIN_DEFINE_ACTIVATION(sequence_softmax)
private:
ACTIVATION_CLASS_NAME(softmax) softmax_;
Argument argument_;

public:
Y
Yu Yang 已提交
161
Error __must_check forward(Argument& act) {
162
  if (act.value->getWidth() != 1UL) {
Y
Yu Yang 已提交
163
    return Error(
164 165
        "Input width for each timestep of sequence softmax should be 1");
  }
Z
zhangjinchao01 已提交
166 167

  if (!argument_.value) {
168 169 170 171 172 173 174 175 176 177
    argument_.value = Matrix::create(nullptr,
                                     /* height= */ 1,
                                     1,
                                     /* trans= */ false,
                                     useGpu(act.deviceId));
    argument_.grad = Matrix::create(nullptr,
                                    /* height= */ 1,
                                    1,
                                    /* trans= */ false,
                                    useGpu(act.deviceId));
Z
zhangjinchao01 已提交
178 179
  }

180 181 182 183
  auto starts =
      act.hasSubseq()
          ? act.subSequenceStartPositions->getVector(useGpu(act.deviceId))
          : act.sequenceStartPositions->getVector(useGpu(act.deviceId));
Z
zhangjinchao01 已提交
184
  act.value->sequenceSoftmax(*act.value, *starts);
Y
Yu Yang 已提交
185
  return Error();
Z
zhangjinchao01 已提交
186 187
}

Y
Yu Yang 已提交
188
Error __must_check backward(Argument& act) {
189
  if (act.value->getWidth() != 1UL) {
Y
Yu Yang 已提交
190
    return Error(
191 192
        "Input width for each timestep of sequence softmax should be 1");
  }
Z
zhangjinchao01 已提交
193

194 195 196
  size_t numSequences =
      act.hasSubseq() ? act.getNumSubSequences() : act.getNumSequences();
  const int* starts = act.getCpuStartPositions();
Z
zhangjinchao01 已提交
197 198 199 200 201 202 203 204

  for (size_t i = 0; i < numSequences; ++i) {
    // TODO(Dangqingqing) optimization for GPU
    size_t offset = starts[i];
    size_t size = starts[i + 1] - starts[i];
    argument_.value->setData(act.value->getData() + offset, 1UL, size);
    argument_.grad->setData(act.grad->getData() + offset, 1UL, size);

Y
Yu Yang 已提交
205 206
    Error err = softmax_.backward(argument_);
    if (!err.isOK()) return err;
Z
zhangjinchao01 已提交
207
  }
Y
Yu Yang 已提交
208
  return Error();
Z
zhangjinchao01 已提交
209 210 211 212
}
END_DEFINE_ACTIVATION(sequence_softmax)

/**
Q
qijun 已提交
213
 * @brief Relu Activation.
Z
zhangjinchao01 已提交
214 215 216 217 218 219 220 221 222
 * forward. y = max(0, z)
 *
 * derivative of relu is:
 *
 *    1 if z > 0
 *
 *    0 otherwise.
 */
BEGIN_DEFINE_ACTIVATION(relu)
Y
Yu Yang 已提交
223
Error __must_check forward(Argument& act) {
224
  act.value->relu(*act.value);
Y
Yu Yang 已提交
225
  return Error();
226
}
Z
zhangjinchao01 已提交
227

Y
Yu Yang 已提交
228
Error __must_check backward(Argument& act) {
229
  act.grad->reluDerivative(*act.value);
Y
Yu Yang 已提交
230
  return Error();
231
}
Z
zhangjinchao01 已提交
232 233 234
END_DEFINE_ACTIVATION(relu)

/**
Q
qijun 已提交
235
 * @brief BRelu Activation.
Z
zhangjinchao01 已提交
236 237 238 239 240 241 242 243 244 245 246 247
 *
 * forward. y = min(24, max(0, z))
 *
 * derivative of brelu is:
 *
 *    1 if 0 < z < 24
 *
 *    0 otherwise.
 *
 * TODO(yuyang18): Remove magic number 24 or make it configuable.
 */
BEGIN_DEFINE_ACTIVATION(brelu)
Y
Yu Yang 已提交
248
Error __must_check forward(Argument& act) {
249
  act.value->brelu(*act.value);
Y
Yu Yang 已提交
250
  return Error();
251
}
Z
zhangjinchao01 已提交
252

Y
Yu Yang 已提交
253
Error __must_check backward(Argument& act) {
254
  act.grad->breluDerivative(*act.value);
Y
Yu Yang 已提交
255
  return Error();
256
}
Z
zhangjinchao01 已提交
257 258 259
END_DEFINE_ACTIVATION(brelu)

/**
Q
qijun 已提交
260 261
 * @brief Tanh Activation.
 * \f[
Z
zhangjinchao01 已提交
262
 * f(z) = tanh(z)=\frac{e^z-e^{-z}}{e^z+e^{-z}}
Q
qijun 已提交
263
 * \f]
Z
zhangjinchao01 已提交
264 265
 */
BEGIN_DEFINE_ACTIVATION(tanh)
Y
Yu Yang 已提交
266
Error __must_check forward(Argument& act) {
267
  act.value->tanh(*act.value);
Y
Yu Yang 已提交
268
  return Error();
269
}
Z
zhangjinchao01 已提交
270

Y
Yu Yang 已提交
271
Error __must_check backward(Argument& act) {
272
  act.grad->tanhDerivative(*act.value);
Y
Yu Yang 已提交
273
  return Error();
274
}
Z
zhangjinchao01 已提交
275 276 277
END_DEFINE_ACTIVATION(tanh)

/**
Q
qijun 已提交
278 279
 * @brief Scaled Tanh Activation
 * \f[
Z
zhangjinchao01 已提交
280
 * f(z) = 1.7159 * tanh(2/3*z)
Q
qijun 已提交
281
 * \f]
Z
zhangjinchao01 已提交
282 283 284 285 286 287 288
 */
BEGIN_DEFINE_ACTIVATION(stanh)
private:
real a, b;

public:
ACTIVATION_CLASS_NAME(stanh)() : a(1.7159), b(2. / 3.) {}
Y
Yu Yang 已提交
289
Error __must_check forward(Argument& act) {
290
  act.value->scaledTanh(*act.value, a, b);
Y
Yu Yang 已提交
291
  return Error();
292
}
Z
zhangjinchao01 已提交
293

Y
Yu Yang 已提交
294
Error __must_check backward(Argument& act) {
Z
zhangjinchao01 已提交
295
  act.grad->scaledTanhDerivative(*act.value, a, b);
Y
Yu Yang 已提交
296
  return Error();
Z
zhangjinchao01 已提交
297 298 299 300
}
END_DEFINE_ACTIVATION(stanh)

/**
Q
qijun 已提交
301 302
 * @brief Soft Relu Activation.
 * \f[
Z
zhangjinchao01 已提交
303
 * f(z) = ln(1+e^z)
Q
qijun 已提交
304
 * \f]
Z
zhangjinchao01 已提交
305 306
 */
BEGIN_DEFINE_ACTIVATION(softrelu)
Y
Yu Yang 已提交
307
Error __must_check forward(Argument& act) {
308
  act.value->softrelu(*act.value);
Y
Yu Yang 已提交
309
  return Error();
310
}
Z
zhangjinchao01 已提交
311

Y
Yu Yang 已提交
312
Error __must_check backward(Argument& act) {
313
  act.grad->softreluDerivative(*act.value);
Y
Yu Yang 已提交
314
  return Error();
315
}
Z
zhangjinchao01 已提交
316 317 318
END_DEFINE_ACTIVATION(softrelu)

/**
Q
qijun 已提交
319
 * @brief Abs Activation.
Z
zhangjinchao01 已提交
320 321 322 323 324 325 326 327 328 329 330
 * Forward: f(z) = abs(z)
 *
 * Derivative:
 *
 *     1   if z>0
 *
 *    -1   if z<0
 *
 *     0   if z=0
 */
BEGIN_DEFINE_ACTIVATION(abs)
Y
Yu Yang 已提交
331
Error __must_check forward(Argument& act) {
Z
zhangjinchao01 已提交
332
  SetDevice device(act.deviceId);
333 334 335 336 337
  Matrix::resizeOrCreate(act.in,
                         act.value->getHeight(),
                         act.value->getWidth(),
                         /* trans */ false,
                         useGpu(act.deviceId));
Z
zhangjinchao01 已提交
338 339

  act.in->copyFrom(*act.value);
H
hedaoyuan 已提交
340
  act.value->abs2(*act.value);
Y
Yu Yang 已提交
341
  return Error();
Z
zhangjinchao01 已提交
342 343
}

Y
Yu Yang 已提交
344
Error __must_check backward(Argument& act) {
345
  act.grad->absDerivative(*act.in);
Y
Yu Yang 已提交
346
  return Error();
347
}
Z
zhangjinchao01 已提交
348 349 350
END_DEFINE_ACTIVATION(abs)

/**
Q
qijun 已提交
351 352
 * @brief Square Activation.
 * \f[
Z
zhangjinchao01 已提交
353
 * f(z) = z^2.
Q
qijun 已提交
354
 * \f]
Z
zhangjinchao01 已提交
355 356
 */
BEGIN_DEFINE_ACTIVATION(square)
Y
Yu Yang 已提交
357
Error __must_check forward(Argument& act) {
Z
zhangjinchao01 已提交
358
  SetDevice device(act.deviceId);
359 360 361 362 363
  Matrix::resizeOrCreate(act.in,
                         act.value->getHeight(),
                         act.value->getWidth(),
                         /* trans */ false,
                         useGpu(act.deviceId));
Z
zhangjinchao01 已提交
364 365

  act.in->copyFrom(*act.value);
H
hedaoyuan 已提交
366
  act.value->square2(*act.value);
Y
Yu Yang 已提交
367
  return Error();
Z
zhangjinchao01 已提交
368 369
}

Y
Yu Yang 已提交
370
Error __must_check backward(Argument& act) {
371
  act.grad->squareDerivative(*act.in);
Y
Yu Yang 已提交
372
  return Error();
373
}
Z
zhangjinchao01 已提交
374
END_DEFINE_ACTIVATION(square)
375

Q
qijun 已提交
376 377 378 379 380 381
/**
 * @brief Exponential Activation.
 * \f[
 * f(z) = e^z
 * \f]
 */
Z
zhangjinchao01 已提交
382
BEGIN_DEFINE_ACTIVATION(exponential)
Y
Yu Yang 已提交
383
Error __must_check forward(Argument& act) {
384
  act.value->exp2(*act.value);
Y
Yu Yang 已提交
385
  return Error();
386
}
Z
zhangjinchao01 已提交
387

Y
Yu Yang 已提交
388
Error __must_check backward(Argument& act) {
389
  act.grad->expDerivative(*act.value);
Y
Yu Yang 已提交
390
  return Error();
391
}
Z
zhangjinchao01 已提交
392 393
END_DEFINE_ACTIVATION(exponential)

X
xuwei06 已提交
394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431
/**
 * @brief Reciprocal Activation.
 * \f[
 * f(z) = 1/z
 * \f]
 */
BEGIN_DEFINE_ACTIVATION(reciprocal)
Error __must_check forward(Argument& act) {
  act.value->reciprocal2();
  return Error();
}

Error __must_check backward(Argument& act) {
  act.grad->dotMulSquare(*act.value);
  act.grad->neg();
  return Error();
}
END_DEFINE_ACTIVATION(reciprocal)

/**
 * @brief Square Root Activation.
 * \f[
 * f(z) = sqrt(z)
 * \f]
 */
BEGIN_DEFINE_ACTIVATION(sqrt)
Error __must_check forward(Argument& act) {
  act.value->sqrt2();
  return Error();
}

Error __must_check backward(Argument& act) {
  act.grad->dotDiv(*act.grad, *act.value);
  act.grad->mulScalar(0.5);
  return Error();
}
END_DEFINE_ACTIVATION(sqrt)

432 433 434 435 436 437 438
/**
 * @brief Logarithm Activation.
 * \f[
 * f(z) = log(z)
 * \f]
 */
BEGIN_DEFINE_ACTIVATION(log)
Y
Yu Yang 已提交
439
Error __must_check forward(Argument& act) {
440
  SetDevice device(act.deviceId);
441 442 443 444 445
  Matrix::resizeOrCreate(act.in,
                         act.value->getHeight(),
                         act.value->getWidth(),
                         /* trans */ false,
                         useGpu(act.deviceId));
446 447

  act.in->copyFrom(*act.value);
H
hedaoyuan 已提交
448
  act.value->log2(*act.value);
Y
Yu Yang 已提交
449
  return Error();
450 451
}

Y
Yu Yang 已提交
452
Error __must_check backward(Argument& act) {
453
  act.grad->dotDiv(*act.grad, *act.in);
Y
Yu Yang 已提交
454
  return Error();
455
}
456 457
END_DEFINE_ACTIVATION(log)

Z
zhangjinchao01 已提交
458 459 460 461
ActivationFunction* ActivationFunction::create(const std::string& type) {
  return gActivationRegistrar.createByType(type);
}

462 463
std::vector<std::string> ActivationFunction::getAllRegisteredTypes() {
  std::vector<std::string> types;
464 465
  gActivationRegistrar.forEachType(
      [&](const std::string& type) { types.push_back(type); });
466 467 468
  return types;
}

Z
zhangjinchao01 已提交
469
}  // namespace paddle