block_desc.h 2.8 KB
Newer Older
F
fengjiayi 已提交
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
/* Copyright (c) 2016 PaddlePaddle Authors. All Rights Reserve.

Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at

http://www.apache.org/licenses/LICENSE-2.0

Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License. */

#pragma once

F
fengjiayi 已提交
17
#include <deque>
Y
Fix CI  
Yu Yang 已提交
18
#include <memory>
Y
Yu Yang 已提交
19
#include <set>
F
fengjiayi 已提交
20 21
#include <unordered_map>
#include <vector>
Y
Yu Yang 已提交
22

F
fengjiayi 已提交
23
#include "paddle/framework/op_desc.h"
24
#include "paddle/framework/proto_desc.h"
F
fengjiayi 已提交
25
#include "paddle/framework/var_desc.h"
D
format  
dongzhihong 已提交
26
#include "paddle/platform/macros.h"
F
fengjiayi 已提交
27 28 29 30

namespace paddle {
namespace framework {

Y
Yu Yang 已提交
31
class ProgramDesc;
F
fengjiayi 已提交
32 33 34 35 36

// Each Protobuf Message, we provide a XXXBind class. In that class, we optimize
// read/write speed. Only when we want the protobuf message, the local changes
// will be synchronized (by `Sync` method).

Y
Yu Yang 已提交
37
class BlockDesc {
F
fengjiayi 已提交
38
 public:
Y
Yu Yang 已提交
39
  BlockDesc(ProgramDesc *prog, proto::BlockDesc *desc);
F
fengjiayi 已提交
40

Y
Yu Yang 已提交
41
  BlockDesc(const BlockDesc &other, proto::BlockDesc *desc, ProgramDesc *prog);
Y
Yu Yang 已提交
42

Y
Yu Yang 已提交
43
  ~BlockDesc() {
44 45 46 47
    this->ClearPBVars();
    this->ClearPBOps();
  }

F
fengjiayi 已提交
48 49 50 51
  int32_t ID() const { return desc_->idx(); }

  int32_t Parent() const { return desc_->parent_idx(); }

Y
Yu Yang 已提交
52
  VarDesc *Var(const std::string &name_bytes);
F
fengjiayi 已提交
53

Y
Yu Yang 已提交
54
  VarDesc *FindVar(const std::string &name_bytes) const;
F
fengjiayi 已提交
55

Q
qiaolongfei 已提交
56 57
  bool HasVar(const std::string &var_name) const;

Y
Yu Yang 已提交
58
  VarDesc *FindVarRecursive(const std::string &name_bytes) const;
59

Y
Yu Yang 已提交
60
  VarDesc *FindRecursiveOrCreateVar(const std::string &name_bytes);
Y
Yang Yang(Tony) 已提交
61

62 63
  bool HasVarRecursive(const std::string &var_name) const;

Y
Yu Yang 已提交
64 65 66 67 68 69 70 71
  std::set<std::string> LocalVarNames() const {
    std::set<std::string> var_names;
    for (auto &var : vars_) {
      var_names.insert(var.first);
    }
    return var_names;
  }

Y
Yu Yang 已提交
72
  std::vector<VarDesc *> AllVars() const;
F
fengjiayi 已提交
73

Y
Yu Yang 已提交
74
  BlockDesc *ParentBlock() const;
F
fengjiayi 已提交
75

Y
Yu Yang 已提交
76
  OpDesc *AppendOp();
F
fengjiayi 已提交
77

Y
Yu Yang 已提交
78
  void AppendAllocatedOp(std::unique_ptr<OpDesc> &&op_desc);
79

Y
Yu Yang 已提交
80
  OpDesc *PrependOp();
F
fengjiayi 已提交
81

T
typhoonzero 已提交
82 83
  void RemoveOp(size_t s, size_t e);

Y
Yu Yang 已提交
84
  std::vector<OpDesc *> AllOps() const;
F
fengjiayi 已提交
85

86 87
  size_t OpSize() const { return ops_.size(); }

Y
Yu Yang 已提交
88
  OpDesc *Op(int idx) { return ops_.at(idx).get(); }
89

90
  void Flush();
F
fengjiayi 已提交
91

92
  proto::BlockDesc *Proto();
F
fengjiayi 已提交
93

Y
Yu Yang 已提交
94
  ProgramDesc *Program() { return this->prog_; }
Y
Yu Yang 已提交
95

96 97 98 99
 private:
  void ClearPBOps();
  void ClearPBVars();

100
 private:
Y
Yu Yang 已提交
101
  ProgramDesc *prog_;       // not_own
102
  proto::BlockDesc *desc_;  // not_own
F
fengjiayi 已提交
103 104
  bool need_update_;

Y
Yu Yang 已提交
105 106
  std::deque<std::unique_ptr<OpDesc>> ops_;
  std::unordered_map<std::string, std::unique_ptr<VarDesc>> vars_;
D
format  
dongzhihong 已提交
107

Y
Yu Yang 已提交
108
  DISABLE_COPY_AND_ASSIGN(BlockDesc);
F
fengjiayi 已提交
109
};
F
fengjiayi 已提交
110 111
}  // namespace framework
}  // namespace paddle