diff --git a/zh-cn/device-dev/faqs/faqs-init.md b/zh-cn/device-dev/faqs/faqs-init.md index 3360d97b5043defd854123b18d6fd8acc498ea5c..8c6ddeb853932dda48dac9294d68b84917b03892 100644 --- a/zh-cn/device-dev/faqs/faqs-init.md +++ b/zh-cn/device-dev/faqs/faqs-init.md @@ -64,78 +64,78 @@ ueventd服务启动后,首先出现打印 “Failed to get uevent socket, try to create”,并且应当伴随如下图所示错误日志: - **图二** ueventd获取socket失败 + **图2** ueventd获取socket失败 ![ueventd_socket](figures/ueventd_socket.png) **可能原因** -由于ueventd服务是按需启动的服务,其启动后首先要做的就是从环境变量中拿到init为其创建的socket的fd。根据上述报错打印可知,是获取环境变量的值失败,这种情况可能是 -1. cfg文件中的ueventd服务没有配置socket,导致init并没有为其创建socket,也就没有相应的环境变量能够让其获取 -2. cfg文件中的ueventd服务已经配置了socket,但仍然由此现象,那可能是在另外一个cfg文件中重复配置了ueventd服务,并且其中没有配置socket +由于ueventd服务是按需启动的服务,其启动后首先要做的就是从环境变量中拿到init为其创建的socket的fd。根据上述报错打印可知,是获取环境变量的值失败,这种情况可能是: +1. cfg文件中的ueventd服务没有配置socket,导致init并没有为其创建socket,也就没有相应的环境变量能够让其获取。 +2. cfg文件中的ueventd服务已经配置了socket,但仍然有此现象,那可能是在另外一个cfg文件中重复配置了ueventd服务,并且其中没有配置socket。 **解决办法** -对于原因1,需要在cfg文件中对ueventd服务进行socket配置,具体可参看init.cfg中ueventd服务的配置 +对于原因1,需要在cfg文件中对ueventd服务进行socket配置,具体可参看init.cfg中[ueventd服务的配置](https://gitee.com/openharmony/docs/blob/master/zh-cn/device-dev/subsystems/subsys-boot-init.md#%E5%BC%80%E5%8F%91%E6%8C%87%E5%AF%BC)(开发指导第3部分)。 -对于原因2,则需要查看所有cfg文件找到重复配置的ueventd服务,并将其删除,最终只保留一个有效的ueventd服务配置 +对于原因2,则需要查看所有cfg文件找到重复配置的ueventd服务,并将其删除,最终只保留一个有效的ueventd服务配置。 ## ueventd服务轮询socket超时,并自动退出 **现象描述** -ueventd服务启动一段时间后,出现打印 “poll ueventd socket timeout, ueventd exit” 并自动退出 +ueventd服务启动一段时间后,出现打印 “poll ueventd socket timeout, ueventd exit” 并自动退出。 **可能原因** -由于ueventd服务是按需启动的服务,其行为是当有uevent事件上报时,init监听到socket消息,会将ueventd服务拉起使其处理相应的socket消息,ueventd服务处理完现有的socket消息后,会自己再轮询对应socket句柄30秒,若30秒内又有新消息上报,则继续处理,待处理结束后再次计时轮询30秒;若超过30秒都没有新消息上报,ueventd服务将会退出,并将socket交还给init轮询,此时就会出现现象中的打印,因此这是一个正常的行为逻辑 +由于ueventd服务是按需启动的服务,其行为是当有uevent事件上报时,init监听到socket消息,会将ueventd服务拉起使其处理相应的socket消息,ueventd服务处理完现有的socket消息后,会自己再轮询对应socket句柄30秒,若30秒内又有新消息上报,则继续处理,待处理结束后再次计时轮询30秒;若超过30秒都没有新消息上报,ueventd服务将会退出,并将socket交还给init轮询,此时就会出现现象中的打印,因此这是一个正常的行为逻辑。 **解决办法** -正常行为,无需解决 +正常行为,无需解决。 ## 配置了ondemand属性的服务无法被正确解析启动 **现象描述** -一个符合json格式的服务配置无法被正确解析,打印 “Service is invalid which has both critical and ondemand attribute”,启动该服务时提示Cannot find service +一个符合json格式的服务配置无法被正确解析,打印 “Service is invalid which has both critical and ondemand attribute”,启动该服务时提示Cannot find service. **可能原因** -首先应该确保该服务的配置符合json格式,否则将导致所在cfg文件解析失败,服务自然也会解析失败。其次需要检查配置了ondemand属性的服务,是否同时配置了critical属性值为1,或者critical属性数组的第一个值为1,若是如此,将导致服务解析失败,这是因为ondemand属性默认是按需启动的,只有当需要时才会拉起,空闲时退出,而配置了critical属性的服务被认为是系统关键服务,不可退出,所以这两种属性在同一服务中共存是不合理的,因此在逻辑上做了屏蔽处理 +首先应该确保该服务的配置符合json格式,否则将导致所在cfg文件解析失败,服务自然也会解析失败。其次需要检查配置了ondemand属性的服务,是否同时配置了critical属性值为1,或者critical属性数组的第一个值为1,若是如此,将导致服务解析失败,这是因为ondemand属性默认是按需启动的,只有当需要时才会拉起,空闲时退出,而配置了critical属性的服务被认为是系统关键服务,不可退出,所以这两种属性在同一服务中共存是不合理的,因此在逻辑上做了屏蔽处理。 **解决办法** -确认该服务是否要做成按需启动的服务,如果不是,将不需要配置ondemand属性;如果是,在配置了ondemand属性后,不可再配置critical属性,若是需要critical中的服务异常退出次数限制,请将critical属性数组中的第一个值配置为0再加次数限制,例如"critical" : [0, 15, 5],代表该服务在5秒钟内启动退出超过15次,将不再启动该服务,并且不会导致系统重启 +确认该服务是否要做成按需启动的服务,如果不是,就不需要配置ondemand属性;如果是,则在配置了ondemand属性后,不可再配置critical属性,若是需要critical中的服务异常退出次数限制,请将critical属性数组中的第一个值配置为0再加次数限制,例如"critical" : [0, 15, 5],代表该服务在5秒钟内启动退出超过15次,将不再启动该服务,并且不会导致系统重启。 ## 配置了ondemand属性的服务不受并行启动控制 **现象描述** -配置了ondemand属性的服务并没有在并行启动阶段被拉起,不论是将start-mode配置为boot,normal还是使用缺省配置 +配置了ondemand属性的服务并没有在并行启动阶段被拉起,不论是将start-mode配置为boot,normal还是使用缺省配置。 **可能原因** -由于ondemand属性是控制服务按需启动的属性,对于按需启动的服务,应当是当需要时,即满足其启动条件时启动,因此并行启动不会拉起配置有ondemand属性的服务,这是正常的行为逻辑 +由于ondemand属性是控制服务按需启动的属性,对于按需启动的服务,应当是当需要时,即满足其启动条件时启动,因此并行启动不会拉起配置有ondemand属性的服务,这是正常的行为逻辑。 **解决办法** -若要一个服务加入并行启动,不应为其配置ondemand属性 +若要一个服务加入并行启动,不应为其配置ondemand属性。 ## SA按需启动服务无法实现按需拉起 **现象描述** -将一个SA服务配置为按需启动的情况下,在SA客户端发送请求后,samgr并没有动态拉起SA服务 +将一个SA服务配置为按需启动的情况下,在SA客户端发送请求后,samgr并没有动态拉起SA服务。 **可能原因** -在SA服务实现按需启动初期,还是使用统一接口SystemAbilityManager::CheckSystemAbility(int32_t systemAbilityId),后续为了将按需启动的SA服务区分开来,专门新增了samgr提供的动态加载接口LoadSystemAbility(int32_t systemAbilityId, const sptr& callback),原接口不适配按需启动的SA服务,故可能是接口使用错误导致SA服务未能按需拉起 +在SA服务实现按需启动初期,还是使用统一接口SystemAbilityManager::CheckSystemAbility(int32_t systemAbilityId),后续为了将按需启动的SA服务区分开来,专门新增了samgr提供的动态加载接口LoadSystemAbility(int32_t systemAbilityId, const sptr& callback),原接口不适配按需启动的SA服务,故可能是接口使用错误导致SA服务未能按需拉起。 **解决办法** -在按需启动的SA服务中使用samgr提供的动态加载接口LoadSystemAbility(int32_t systemAbilityId, const sptr& callback) +在按需启动的SA服务中使用samgr提供的动态加载接口LoadSystemAbility(int32_t systemAbilityId, const sptr& callback)。