4. 错误消息一览表

本章介绍EXPRESSCLUSTER X SingleServerSafe运行中显示的错误消息一览表。

本章包含以下内容。

4.1. syslog,警报,邮件通告消息,SNMP Trap消息,Message Topic

在alert列中标有●标记的消息会被输出到Cluster WebUI的警报日志中,在syslog列中有●标记的消息会被输出到OS的syslog中。
在Mail Report列中标有●标记的消息在设置了alert服务的 邮件通报时会被通报。
在SNMP Trap列中标有●标记的消息在设置了alert服务的SNMP Trap发送时会被通报。
关于邮件通报,SNMP Trap发送请参考EXPRESSCLUSTER X的《设置指南》。
关于Message Topic 列中标有●标记的消息在设置了Amazon SNS联动功能时会被通报。

EXPRESSCLUSTER X SingleServerSafe 的消息如下所示。

注解

通过facility = daemon(0x00000018), identity = "clusterpro"在syslog中输出。下表的"事件分类"相当于syslog的日志级别。

下表中使用的记号如下所示。

[1]alert, [2]syslog, [3]Mail Report, [4]SNMP Trap, [5]Message Topic

模块类型

事件分类

事件ID

消息

描述

处理方法

1

2

3

4

5

sss

错误

8

Failed to update config file.

配置文件的更新失败。

请确认配置信息。

sss

信息

10

Updated config file successfully.

配置文件已被更新。

-

sss

错误

12

Information in config file is invalid.

配置文件内容不正确。

请确认配置信息。

sss

错误

14

Failed to obtain server name.

服务器获取失败。

可执行是内存不足或OS资源不足。请确认。

sss

信息

16

Server name is updated.

服务器名已被更新。

-

pm

信息

1

Starting the cluster daemon...

EXPRESSCLUSTER Daemon已正常启动。

-

pm

信息

2

Shutting down the cluster daemon...

正在停止EXPRESSCLUSTER Daemon。

-

pm

信息

3

Shutdown monitoring is started...

关机监视已经启动。

-

pm

错误

10

The cluster daemon has already started.

EXPRESSCLUSTER Daemon已经启动。

请确认EXPRESSCLUSTER Daemon的状态。

pm

错误

11

A critical error occurred in the cluster daemon.

EXPRESSCLUSTER Daemon上发生重大错误。

执行用户没有root权限,或内存不足或OS的资源不足。请确认。

pm

错误

12

A problem was detected in XML library.

查出XML库的问题。

可执行是内存不足或OS资源不足。请确认。

pm

错误

13

A problem was detected in cluster configuration data.

查出配置信息中的问题。

请使用Cluster WebUI确认配置信息。

pm

错误

14

No cluster configuration data is found.

配置信息不存在。

请使用Cluster WebUI创建服务器配置,并将其上载到服务器上。

pm

错误

15

No information about this server is found in the cluster configuration data.

自身服务器上不存在配置信息。

请使用Cluster WebUI确认配置信息。

pm

警告

16

The recovery action is configured to change from an OS stop to an OS restart.

确认集群属性设置。

-

pm

错误

20

Process %1 was terminated abnormally.

%1进程异常结束。

可执行是内存不足或OS资源不足。请确认。

即使nm进程异常结束,也不会影响业务,但是无法执行集群停止操作。 要复原,请使用Cluster WebUI或clpdown命令重新启动OS。

pm

错误

21

The system will be stopped because the cluster daemon process terminated abnormally.

EXPRESSCLUSTER Daemon的进程异常结束,因此将停止系统。

可执行是组资源的停止失败。请按照组资源的消息提示处理。

pm

错误

22

An error occurred when initializing process %1.(return code:%2)

%1进程的初始化错误。

可执行是事件进程尚未启动。

pm

信息

23

The system will be stopped.

将停止系统。

-

pm

信息

24

The cluster daemon will be stopped.

将停止EXPRESSCLUSTER Daemon。

-

pm

信息

25

The system will be rebooted.

将重启系统。

-

pm

信息

26

Process %1 will be restarted.

将重启%1进程。

-

pm

信息

30

Received a request to stop the system from %1.

从%1收到了停止系统的请求。

-

pm

信息

31

Received a request to stop the cluster daemon from %1.

从%1收到了停止EXPRESSCLUSTER Daemon的请求。

-

pm

信息

32

Received a request to reboot the system from %1.

从%1收到了系统重启的请求。

-

pm

信息

33

Received a request to restart the cluster daemon from %1.

从%1收到了重启EXPRESSCLUSTER Daemon重启的请求。

-

pm

信息

34

Received a request to resume the cluster daemon from %1.

从%1收到了复原服务器的请求。

-

pm

信息

35

Received a request to suspend the cluster daemon from %1.

从%1收到了挂起服务器的请求。

-

pm

信息

36

Received a request to panic by sysrq from %1.

从%1收到了由sysrq引发的panic请求。

-

pm

信息

37

Received a request to reset by keepalive driver from %1.

从%1收到了由keepalive驱动引发的reset请求。

-

pm

信息

38

Received a request to panic by keepalive driver from %1.

从%1收到了由keepalive驱动引发的panic请求。

-

pm

信息

39

Received a request to reset by BMC from %1.

从%1收到了由BMC引发的reset请求。

-

pm

信息

40

Received a request to power down by BMC from %1.

从%1收到了由BMC引发的power down请求。

-

pm

信息

41

Received a request to power cycle by BMC from %1.

从%1收到了由BMC引发的power cycle请求。

-

pm

信息

42

Received a request to send NMI by BMC from %1.

从%1收到了由BMC引发的发送NMI请求。

-

pm

错误

66

An attempt to panic by sysrq from %1 failed.

尝试从%1由sysrq引发panic,但失败了。

请确认系统能否使用sysrq。

pm

错误

67

An attempt to reset by keepalive driver from %1 failed.

尝试从%1由keepalive驱动引发reset,但失败了。

请确认环境能否使用keepalive驱动。

pm

错误

68

An attempt to panic by keepalive driver from %1 failed.

尝试从%1由keepalive驱动引发panic,但失败了。

请确认环境能否使用keepalive驱动。

pm

错误

69

An attempt to reset by BMC from %1 failed.

尝试从%1由BMC引发reset,但失败了。

请确认能否使用ipmitool命令。

pm

错误

70

An attempt to power down by BMC from %1 failed.

尝试从%1由BMC引发power down,但失败了。

请确认能否使用ipmitool命令。

pm

错误

71

An attempt to power cycle by BMC from %1 failed.

尝试从%1由BMC引发power cycle,但失败了。

请确认能否使用ipmitool命令。

pm

错误

72

An attempt to send NMI by BMC from %1 failed.

尝试从%1由BMC引发发送NMI,但失败了。

请确认能否使用ipmitool命令。

nm

信息

1

Server %1 has started.

服务器%1已经启动。

-

nm

信息

2

Server %1 has been stopped.

服务器%1已经停止。

-

nm

信息

3

Resource %1 of server %2 has started.

服务器%2的%1资源已经启动。

-

nm

信息

4

Resource %1 of server %2 has stopped.

服务器%2的%1资源已经停止。

-

nm

信息

5

Waiting for all servers to start.

等待服务器启动。

-

nm

信息

6

All servers have started.

服务器已启动。

-

nm

信息

7

Timeout occurred during the wait for startup of all servers.

等待所有服务器启动超时。

-

nm

错误

8

Timeout occurred during the wait for startup of all servers. (Cannot communicate with some servers.)

等待所有服务器启动超时。(与某些服务器不能进行内部通信。)

请确认网络适配器中是否有错误,网络连接是否正确。

nm

信息

9

Waiting for startup of all servers has been canceled.

已取消服务器启动等待。

-

nm

错误

10

Status of resource %1 of server %2 is unknown.

服务器%2的%1 资源的状态不明。

请确认%1资源相关的线缆或网络设置是否正确。

nm

警告

11

NP resolution process at the cluster startup is disabled.

禁用集群启动时的网络分区解决处理。

禁用集群启动时的网络分区解决处理。

nm

错误

20

Process %1 was terminated abnormally.

%1进程异常结束。

可执行是内存不足或OS资源不足。请确认。

nm

信息

21

The system will be stopped.

系统将停止。

-

nm

信息

22

The cluster daemon will be stopped.

EXPRESSCLUSTER Daemon将停止。

-

nm

信息

23

The system will be rebooted.

系统将重启。

-

nm

信息

24

Process %1 will be restarted.

%1进程将重启。

-

nm

错误

30

Network partition was detected. Shut down the server %1 to protect data.

查出网络分区。为了保护数据关闭了服务器%1。

所有心跳资源将无法使用。请确认网络适配器中是否有错误,网络连接是否正确。使用DISKHB时,请确认共享磁盘的状态。

nm

错误

31

An error occurred while confirming the network partition. Shut down the server %1.

在确认网络分区时发生错误。为了保护数据关闭了服务器%1。

请确认在网络分区解决资源中是否发生了错误。

nm

错误

32

Shut down the server %1. (reason:%2)

关闭了服务器%1。(原因:%2)

所有心跳资源将无法使用。请确认网络适配器中是否有错误,网络连接是否正确。
使用DISKHB时,请确认共享磁盘的状态。

nm

错误

33

Cluster service will be stopped. (reason:%1)

停止了服务。(原因:%1)

请排除原因所示的故障。

nm

错误

34

The combination of the network partition resources is invalid. (server name:%1)

网络分区解决资源的组合不正确(服务器名:%1)

请确认配置信息。

nm

错误

35

Failed to start the resource %1. Server name:%2

资源%1启动失败。(服务器名:%2)

请确认在网络分区解决资源中是否发生了错误。

nm

信息

36

The network partition %1 of the server %2 has been recovered to the normal status.

服务器%2的网络分区%1复原正常。

-

nm

错误

37

The network partition %1 of the server %2 has an error.

请确认在网络分区解决资源中是否发生了错误。

nm

错误

38

The resource %1 of the server %2 is unknown.

请确认配置信息。

nm

信息

39

The server %1 canceled the pending failover.

-

nm

错误

80

Cannot communicate with server %1.

与服务器%1不能进行内部通信。

请确认网络适配器中是否有错误,或者网络连接是否正确。

nm

信息

81

Recovered from internal communication error with server %1.

与服务器%1的内部通信从异常状态复原。

-

rc

信息

10

Activating group %1 has started.

开始了%1组的启动处理。

-

rc

信息

11

Activating group %1 has completed.

%1组的启动处理已结束。

-

rc

错误

12

Activating group %1 has failed.

%1组的启动处理失败。

请按照组资源的消息提示处理。

rc

信息

15

Waiting for group %1 to start has started.

已开始组的启动等待处理。

-

rc

信息

16

Waiting for group %1 to start has been completed.

组的启动等待处理正常完成。

-

rc

错误

17

Group start has been canceled because waiting for group %1 to start has timed out

在组的启动等待处理中发生了超时

请确认启动等待目标组的状态。
组未启动时,请在启动组后再次执行组操作。

rc

警告

18

Waiting for group %1 to start has timed out. However, group start continues.

在组的启动等待处理中,虽发生了超时,但仍继续启动组。

-

rc

信息

20

Stopping group %1 has started.

开始了%1组的停止处理。

-

rc

信息

21

Stopping group %1 has completed.

%1组的停止处理已结束。

-

rc

错误

22

Stopping group %1 has failed.

%1组的停止处理失败。

请按照组资源的消息提示处理。

rc

错误

23

Server %1 is not in a condition to start group %2.

服务器%1未处于能启动组%2的状态。

已启动完全排他组的服务器不能再启动完全排他组。请停止完全排他组之后再执行。

rc

信息

25

Waiting for group %1 to stop has started.

开始了组的停止等待处理。

-

rc

信息

26

Waiting for group %1 to stop has been completed.

所依存组的停止等待处理正常完成。

-

rc

错误

27

Group stop has been canceled because waiting for group %1 to stop has timed out.

在组的停止等待处理中发生了超时。

请确认停止等待目标组的状态。
组未停止时,请在停止组后再次执行组操作。

rc

警告

28

Waiting for group %1 to stop has timed out. However, group stop continues.

在停止等待处理中,虽发生了超时,但仍继续停止组。

-

rc

信息

30

Activating %1 resource has started.

开始了%1资源的启动处理。

-

rc

信息

31

Activating %1 resource has completed.

%1资源的启动处理已结束。

-

rc

错误

32

Activating %1 resource has failed.(%2 : %3)

%1资源的启动处理失败。

请参考"组资源启动/停止时的详细信息"。
在启动的时候有1%的资源输出状态失败。(99:命令提示 超时)

rc

信息

40

Stopping %1 resource has started.

开始了%1资源的停止处理。

-

rc

信息

41

Stopping %1 resource has completed.

%1资源的停止处理已结束。

-

rc

错误

42

Stopping %1 resource has failed.(%2 : %3)

%1资源的停止处理失败。

请参考"组资源启动/停止时的详细信息"。
在作停止动作的时候,1%的资源会输出现停止失败状态(99:注释超时)

rc

信息

50

Moving group %1 has started.

开始了%1组的移动处理。

-

rc

信息

51

Moving group %1 has completed.

%1组的移动处理已结束。

-

rc

错误

52

Moving group %1 has failed.

%1组的移动处理失败。

请按照组资源的消息提示处理。

rc

信息

55

Migrating group %1 has started.

开始了%1 组的移动处理。

-

rc

信息

56

Migrating group %1 has completed.

结束了%1 组的移动处理。

-

rc

错误

57

Migrating group %1 has failed.

%1 组的移动处理失败。

请按组资源的提示进行处理。

rc

错误

58

Server %1 is not in a condition to migrate group %2.

服务器%1未处于能移动组%2的状态。

请确认移动目标服务器的状态。
移动目标服务器不存在时,%1服务器名不能被输出。

rc

信息

60

Failover group %1 has started.

开始了%1组的失效切换处理。

-

rc

信息

61

Failover group %1 has completed.

%1组的失效切换处理已结束。

-

rc

错误

62

Failover group %1 has failed.

%1组的失效切换处理失败。

请按照组资源的消息提示处理。

rc

错误

63

Server %1 is not in a condition to move group %2.

服务器%1未处于能移动组%2的状态。

请确认移动目标服务器的状态。
移动目标服务器不存在时%1服务器名不能被输出。

rc

情報

64

Server %1 has been set as the destination for the group %2 (reason: %3).

服务器%1被设置为组%2的失效切换目标。(理由: %3)

-

rc

错误

65

There is no appropriate destination for the group %1 (reason: %2).

组%1没有恰当的失效切换目标(理由: %2)

没有可失效切换的服务器。
服务器可执行已经停止,或发生了无法执行失效切换的监视资源异常。
请启动服务器,或排除监视资源异常的原因,也可以停止查出异常的监视资源。

rc

警告

66

Server %1 is not in a condition to start group %2 (reason: %3).

服务器%1处于不能启动组%2的状态(理由: %2)

发生监视资源异常导致组无法启动。
请排除监视资源异常的原因,也可以停止查出异常的监视资源。

rc

信息

67

Server %1 in the same server group (%2) has been set as the destination for the group %3.

相同服务器组%2内的服务器%1被设置为组%3的失效切换目标。

-

rc

信息

68

Server %1 not in the same server group (%2) has been set as the destination for the group %3.

非服务器组%2中的服务器%1被设置为组%3的失效切换目标。

-

rc

警告

69

Can not failover the group %1 because there is no appropriate destination in the same server group %2.

服务器组%2中不存在可对组%1进行失效切换的服务器。

请启动服务器组内的服务器,然后在其他服务器组内的服务器中启动组。

rc

信息

70

Restarting group %1 has started.

开始了%1组的重启处理。

-

rc

信息

71

Restarting group %1 has completed.

%1组的重启处理已结束。

-

rc

错误

72

Restarting group %1 has failed.

%1组的重启处理失败。

请按照组资源的消息提示处理。

rc

信息

74

Failback group %s has started.

开始了%1组的失效切换处理。

-

rc

信息

75

Failback group %s has completed.

%1组的失效切换处理已结束。

-

rc

信息

76

Failback group %s has failed.

%1组的失效切换处理失败。

请按照组资源的消息提示处理。

rc

信息

80

Restarting resource %1 has started.

开始了%1资源的重启处理。

-

rc

信息

81

Restarting resource %1 has completed.

%1资源的重启处理已结束。

-

rc

错误

82

Restarting resource %1 has failed.

%1资源的重启处理失败。

请按照组资源的消息提示处理。

rc

信息

83

Starting a single resource %1.

启动单个资源%1。

-

rc

信息

84

A single resource %1 has been started.

启动单个资源%1结束。

-

rc

错误

85

Failed to start a single resource %1.

启动单个资源%1失败。

请按照组资源的消息提示处理。

rc

错误

86

Server %1 is not in a condition to start a single resource %2.

服务器%1未处于能启动单个资源%2的状态。

请确认服务器及组的状态。

rc

信息

87

Stopping a single resource %1.

停止单个资源%1。

-

rc

信息

88

A single resource %1 has been stopped.

停止单个资源%1结束。

-

rc

错误

89

Failed to stop a single resource %1.

停止单个资源%1失败。

请按照组资源的消息提示处理。

rc

信息

90

All the servers in the cluster were shut down.

服务器已停止。

-

rc

信息

91

The server was shut down.

服务器已停止。

-

rc

警告

100

Restart count exceeded the maximum value %1. Final action of resource %2 will not be executed.

重启次数超过了最大值%1。资源%2 的最终动作无法执行。

请按照组资源的消息提示处理。

rc

信息

160

Script before final action upon deactivation failure in resource %1 started.

开始资源(%1)的停止异常时最终动作前脚本。

-

rc

信息

161

Script before final action upon deactivation failure in resource %1 completed.

结束资源(%1)的停止异常时最终动作前脚本。

-

rc

信息

162

Script before final action upon deactivation failure in resource %1 started.

开始资源(%1)的停止异常时最终动作前脚本。

-

rc

信息

163

Script before final action upon deactivation failure in resource %1 completed.

结束资源(%1)的停止异常时最终动作前脚本。

-

rc

错误

180

Script before final action upon activation failure in resource %1 failed.

资源(%1)的启动异常时最终动作前脚本失败。

请确认脚本失败原因,进行对应处理。

rc

错误

181

Script before final action upon deactivation failure in resource %1 failed.

资源(%1)的停止异常时最终动作前脚本失败。

同上

rc

信息

200

Resource(%1) will be reactivated since activating resource(%2) failed.

由于资源%1的启动处理失败造成将重新启动资源%2。

请按照组资源的消息提示处理。

rc

信息

201

Group(%1) will be moved to server(%2) since activating resource(%3) failed.

由于资源%3的启动处理失败,新组 %1将移动到服务器%2。

请按照组资源的消息提示处理。

rc

信息

202

Group(%1) will be stopped since activating resource(%2) failed.

由于资源%2的启动处理失败造成组%1将停止。

请按照组资源的消息提示处理。

rc

信息

203

Cluster daemon will be stopped since activating resource(%1) failed.

由于资源%1的启动处理失败造成集群Daemon将停止。

请按照组资源的消息提示处理。

rc

信息

204

System will be halted since activating resource(%1) failed.

由于资源%1的启动处理失败造成OS将关闭。

请按照组资源的消息提示处理。

rc

信息

205

System will be rebooted since activating resource(%1) failed.

由于资源%1的启动处理失败造成OS将重启。

请按照组资源的消息提示处理。

rc

信息

206

Activating group(%1) will be continued since failover process failed.

由于失效切换失败,将继续进行组 %1的启动处理。

请按照组资源的消息提示处理。

rc

信息

220

Resource(%1) will be stopping again since stopping resource(%2) failed.

由于资源%2的停止处理失败造成将重试资源%1的停止。

请按照组资源的消息提示处理。

rc

信息

222

Group(%1) will be stopped since stopping resource(%2) failed.

由于资源%2的停止处理失败造成组%1将停止。

请按照组资源的消息提示处理。

rc

信息

223

Cluster daemon will be stopped since stopping resource(%1) failed.

由于资源%1的停止处理失败造成集群Daemon将停止。

请按照组资源的消息提示处理。

rc

信息

224

System will be halted since stopping resource(%1) failed.

由于资源%1的停止处理失败造成 OS 将停止。

请按照组资源的消息提示处理。

rc

信息

225

System will be rebooted since stopping resource(%1) failed.

由于资源%1的停止处理失败造成 OS 将重启。

请按照组资源的消息提示处理。

rc

信息

240

System panic by sysrq is requested since activating resource(%1) failed.

由于资源%1的启动异常,sysrq引发了系统panic请求。

请按照组资源的消息提示处理。

rc

信息

241

System reset by keepalive driver is requested since activating resource(%1) failed.

由于资源%1的启动异常,keepalive驱动引发了系统reset请求。

请按照组资源的消息提示处理。

rc

信息

242

System panic by keepalive driver is requested since activating resource(%1) failed.

由于资源%1的启动异常,keepalive驱动引发了系统panic请求。

请按照组资源的消息提示处理。

rc

信息

243

System reset by BMC is requested since activating resource(%1) failed.

由于资源%1的启动异常,BMC引发了系统reset请求。

请按照组资源的消息提示处理。

rc

信息

244

System power down by BMC is requested since activating resource(%1) failed.

由于资源%1的启动异常,BMC引发了系统power down请求。

请按照组资源的消息提示处理。

rc

信息

245

System power cycle by BMC is requested since activating resource(%1) failed.

由于资源%1的启动异常,BMC引发了系统power cycle请求。

请按照组资源的消息提示处理。

rc

信息

246

NMI send by BMC is requested since activating resource(%1) failed.

由于资源%1的启动异常,BMC引发了发送NMI请求。

请按照组资源的消息提示处理。

rc

错误

260

An attempt to panic system by sysrq due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由sysrq引发系统panic,但失败了。

请确认系统能否使用sysrq。

rc

错误

261

An attempt to reset system by keepalive driver due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由keepalive驱动引发系统reset,但失败了。

请确认环境能否使用keepalive驱动。

rc

错误

262

An attempt to panic system by keepalive driver due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由keepalive驱动引发系统panic,但失败了。

请确认环境能否使用keepalive驱动。

rc

错误

263

An attempt to reset system by BMC due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由BMC引发系统reset,但失败了。

请确认能否使用ipmitool命令。

rc

错误

264

An attempt to power down system by BMC due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由BMC引发系统power down,但失败了。

请确认能否使用ipmitool命令。

rc

错误

265

An attempt to power cycle system by BMC due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由BMC引发系统power cycle,但失败了。

请确认能否使用ipmitool命令。

rc

错误

266

An attempt to send NMI by BMC due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由BMC引发发送NMI,但失败了。

请确认能否使用ipmitool命令。

rc

信息

280

System panic by sysrq is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由sysrq引发了系统panic请求。

请按照组资源的消息提示处理。

rc

信息

281

System reset by keepalive driver is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由keepalive驱动引发了系统reset请求。

请按照组资源的消息提示处理。

rc

信息

282

System panic by keepalive driver is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由keepalive驱动引发了系统panic请求。

请按照组资源的消息提示处理。

rc

信息

283

System reset by BMC is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由BMC引发了系统reset请求。

请按照组资源的消息提示处理。

rc

信息

284

System power down by BMC is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由BMC引发了系统power down请求。

请按照组资源的消息提示处理。

rc

信息

285

System power cycle by BMC is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由BMC引发了系统power cycle请求。

请按照组资源的消息提示处理。

rc

信息

286

Sending NMI by BMC is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由BMC引发了发送NMI请求。

请按照组资源的消息提示处理。

rc

错误

300

An attempt to panic system by sysrq due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由sysrq引发系统panic,但失败了。

请确认系统能否使用sysrq。

rc

错误

301

An attempt to reset system by keepalive driver due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由keepalive驱动引发系统reset,但失败了。

请确认环境能否使用keepalive驱动。

rc

错误

302

An attempt to panic system by keepalive driver due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由keepalive驱动引发系统panic,但失败了。

请确认环境能否使用keepalive驱动。

rc

错误

303

An attempt to reset system by BMC due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由BMC引发系统reset,但失败了。

请确认能否使用ipmitool命令。

rc

错误

304

An attempt to power down system by BMC due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由BMC引发系统power down,但失败了。

请确认能否使用ipmitool命令。

rc

错误

305

An attempt to power cycle system by BMC due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由BMC引发系统power cycle,但失败了。

请确认能否使用ipmitool命令。

rc

错误

306

An attempt to send NMI by BMC due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由BMC引发发送NMI,但失败了。

请确认能否使用ipmitool命令。

rc

错误

340

Group start has been canceled because waiting for group %1 to start has failed.

在组启动等待处理中发生了错误。

可执行是内存不足或
OS资源不足。请确
认。

rc

信息

400

The status of the regular check for a forced stop returned to normal.

强制停止的定期检查状态已恢复正常。

-

rc

错误

401

The regular check for a forced stop detected an abnormality.

检测到强制停止的定期检查异常。

强制停止功能可能无法正常工作。请确认异常原因。

rc

错误

402

The request for forcibly stopping the server has been timed out.

强制停止的服务器停止请求超时。

请确认停止请求超时的原因,并采取对应措施。

rc

信息

403

The request for forcibly stopping the server will be retried.

重试强制停止的服务器停止请求。

-

rc

错误

404

The check of forcibly stopping the server has been timed out.

强制停止的服务器停止确认超时。

请确认停止确认超时的原因,并采取对应措施。

rc

信息

405

The check of forcibly stopping the server will be retried.

重试强制停止的服务器停止确认。

-

rc

警告

441

Waiting for group %1 to stop has failed. However, group stop continues.

在组启动等待处理中发生了错误。

可执行是内存不足或
OS资源不足。请确
认。

rc

警告

500

Since there is no other normally running server, the final action for an activation error of group resource %1 was suppressed.

因没有其他正常运行中的服务器,控制了组资源%1启动异常的最终动作。

-

rc

警告

501

Since there is no other normally running server, the final action for a deactivation error of group resource %1 was suppressed.

因没有其他正常运行中的服务器,控制了组资源%1停止异常的最终动作。

-

rc

警告

510

Cluster action is disabled.

集群动作无效。

-

rc

警告

511

Ignored the automatic start of groups because automatic group startup is disabled.

由于已禁用组的自动启动,因此组的自动启动被忽略。

-

rc

警告

512

Ignored the recovery action in resource activation because recovery action caused by group resource activation error is disabled.

由于已禁用组资源启动异常时的复归动作,因此资源的复归动作被忽略。

-

rc

警告

513

Ignored the recovery action in resource deactivation because recovery action caused by group resource deactivation error is disabled.

由于已禁用组资源停止异常时的复归动作,因此资源的复归动作被忽略。

-

rc

信息

514

Cluster action is set disabled.

集群动作无效。

-

rc

信息

515

Cluster action is set enabled.

集群动作有效。

-

rc

警告

516

Ignored the group failover because failover for a server failure is disabled.

由于服务器宕机时的失效切换已禁用,因此抑制了组的失效切换。

-

rm

信息

1

Monitoring %1 has started.

开始了%1的监视。

-

rm

信息

2

Monitoring %1 has stopped.

%1的监视已停止。

-

rm

信息

3

%1 is not monitored by this server.

%1的监视在本服务器上不执行。

-

rm

警告

4

Warn monitoring %1. (%2 : %3)

警告%1的监视。

请参考"监视资源异常时的详细信息"。
监视资源处于监视准备中时,()内可执行设置为以下的消息。不需要处理此次消息。
(100 : not ready for monitoring.)

rm

警告

5

The maximum number of monitor resources has been exceeded. (registered resource is %1)

超过了最大监视资源数。

请使用Cluster WebUI确认配置信息。

rm

警告

6

Monitor configuration of %1 is invalid. (%2 : %3)

%1的监视配置无效。

请使用Cluster WebUI确认配置信息。

rm

错误

7

Failed to start monitoring %1.

启动%1的监视失败。

可执行是内存不足或OS资源不足。请确认。

rm

错误

8

Failed to stop monitoring %1.

%1的监视的停止失败。

可执行是内存不足或OS资源不足。请确认。

rm

错误

9

Detected an error in monitoring %1. (%2 : %3)

%1的监视中查出异常。

请参考"监视资源异常时的详细信息"。
查出监视超时时,()内将显示以下消息。
(99 : Monitor was timeout.)
如果在一定时间内没有接收到监视资源的响应,()内设置以下的消息。
(202: couldn't receive reply from monitor resource in time.)

rm

信息

10

%1 is not monitored.

未监视%1。

-

rm / mm

信息

12

Recovery target %1 has stopped because an error was detected in monitoring %2.

由于%2的监视中查出异常,复原目标 %1已被停止。

-

rm / mm

信息

13

Recovery target %1 has restarted because an error was detected in monitoring %2.

由于%2的监视中查出异常,复原目标 %1已被重启。

-

rm / mm

信息

14

Recovery target %1 failed over because an error was detected in monitoring %2.

由于%2的监视中查出异常,复原目标 %1已被失效切换。

-

rm / mm

信息

15

Stopping the cluster has been required because an error was detected in monitoring %1.

由于%1的监视中查出异常,请求停止集群。

-

rm / mm

信息

16

Stopping the system has been required because an error was detected in monitoring %1.

由于%1的监视中查出异常,请求停止系统。

-

rm / mm

信息

17

Rebooting the system has been required because an error was detected in monitoring %1.

由于%1的监视中查出异常,请求重启系统。

-

rm / mm

错误

18

Attempted to stop the recovery target %1 due to the error detected in monitoring %2, but failed.

由于%2的监视异常,试图停止复原目标%1,但是失败了。

请确认%1资源的状态。

rm / mm

错误

19

Attempted to restart the recovery target %1 due to the error detected in monitoring %2, but failed.

由于%2的监视异常,试图重启复原目标%1但是失败了。

请确认%1资源的状态。

rm / mm

错误

20

Attempted to fail over %1 due to the error detected in monitoring %2, but failed.

由于%2的监视异常,试图失效切换复原目标%1,但是失败了。

请确认%1资源的状态。

rm / mm

错误

21

Attempted to stop the cluster due to the error detected in monitoring %1, but failed.

由于%1的监视异常,试图停止服务器,但是失败了。

可执行是内存不足或OS资源不足。请确认。

rm / mm

错误

22

Attempted to stop the system due to the error detected in monitoring %1, but failed.

由于%1的监视异常,试图停止系统,但是失败了。

可执行是内存不足或OS资源不足。请确认。

rm / mm

错误

23

Attempted to reboot the system due to the error detected in monitoring %1, but failed.

由于%1的监视异常,试图重启系统,但是失败了。

可执行是内存不足或OS资源不足。请确认。

rm

错误

24

The group of %1 resource is unknown.

%1资源所属组不明。

可执行集群配置信息不一致。请确认。

rm / mm

警告

25

Recovery will not be executed since the recovery target %1 is not active.

由于复原目标%1为停止,无法进行复原操作。

-

rm / mm

信息

26

%1 status changed from error to normal.

%1的监视已从异常复原为正常。

-

rm / mm

信息

27

%1 status changed from error or normal to unknown.

%1的监视从异常或正常变为不明状态。

可执行是内存不足或OS资源不足。请确认。

rm

错误

28

Initialization error of monitor process. (%1 : %2)

监视进程的初始化错误。

可执行是内存不足或OS资源不足。请确认。

rm

信息

29

Monitoring %1 was suspended.

暂时停止了%1的监视。

-

rm

信息

30

Monitoring %1 was resumed.

重新开始了%1的监视。

-

rm

信息

31

All monitors were suspended.

暂时停止所有监视。

-

rm

信息

32

All monitors were resumed.

重新开始了所有监视。

-

rm / mm

信息

35

System panic by sysrq has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,sysrq引发了系统panic请求。

-

rm / mm

错误

36

Attempted to panic system by sysrq due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由sysrq引发系统panic,但失败了。

请确认系统能否使用sysrq。

rm / mm

信息

37

System reset by keepalive driver has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由keepalive驱动引发了系统reset请求。

-

rm / mm

错误

38

Attempted to reset system by keepalive driver due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由keepalive驱动引发系统reset,但失败了。

请确认环境能否使用keepalive驱动。

rm / mm

信息

39

System panic by keepalive driver has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由keepalive驱动引发了系统panic请求。

-

rm / mm

错误

40

Attempted to panic system by keepalive driver due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由keepalive驱动引发系统panic,但失败了。

请确认环境能否使用keepalive驱动。

rm / mm

信息

41

System reset by BMC has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由BMC引发了系统reset请求。

-

rm / mm

错误

42

Attempted to reset system by BMC due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由BMC引发系统reset,但失败了。

请确认能否使用ipmitool命令。

rm / mm

信息

43

System power down by BMC has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由BMC引发了系统power down请求。

-

rm / mm

错误

44

Attempted to power down system by BMC due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由BMC引发系统power down,但失败了。

请确认能否使用ipmitool命令。

rm / mm

信息

45

System power cycle by BMC has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由BMC引发了系统power cycle请求。

-

rm / mm

错误

46

Attempted to power cycle system by BMC due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由BMC引发系统power cycle,但失败了。

请确认能否使用ipmitool命令。

rm / mm

信息

47

NMI send by BMC has been required because an error was detected in monitoring %1.

由于在%1的监视中检出异常,由BMC引发了系统NMI请求。

-

rm / mm

错误

48

Attempted to send NMI by BMC due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由BMC引发系统的NMI,但失败了。

请确认能否使用ipmitool命令。

rm

信息

49

%1 status changed from warning to normal.

%1的监视从警告状态恢复到正常。

-

rm

错误

57

Stopping the cluster is required since license (%1) is invalid.

由于License无效,请求停止集群。

请注册有效的
License。

rm

错误

58

Stopping the cluster due to invalid license (%1) failed.

由于License无效,无法停止集群。

请注册有效的
License。

rm

警告

71

Detected a monitor delay in monitoring %1. (timeout=%2 actual-time=%3 delay warning rate=%4)

%1的监视中查出监视延迟。当前的超时值为%2(tick count)。查出延迟时的实测值为%3(tick count),超过了延迟警告比例 %4(%)。

请确认查出监视延迟的服务器的负载情况,并清除负载。
如果仍然查出监视超时,则需要延长监视超时时间。

rm

警告

72

%1 could not Monitoring.

%1不能执行监视处理。

内存不足或者OS资源不足。请确认。

rm / mm

信息

81

Script before %1 upon failure in monitor resource %2 started.

开始%2监视资源的%1前脚本。

-

rm / mm

信息

82

Script before %1 upon failure in monitor resource %2 completed.

结束%2监视资源的%1前脚本。

-

rm / mm

错误

83

Script before %1 upon failure in monitor resource %2 failed.

%2监视资源的%1前脚本失败。

请确认脚本失败原因,进行对应处理。

rm

警告

100

Restart count exceeded the maximum of %1. Final action of monitoring %2 will not be executed.

由于再启动次数超过了最大值%1,%1的最终动作没有被执行。

-

rm

信息

120

The virtual machine (%1) has been migrated to %2 by an external operation.

%1资源管理的虚拟机通过外部操作被迁移。

-

rm

信息

121

The virtual machine (%1) has been started by an external operation.

%1资源管理的虚拟机通过外部操作被启动。

-

rm

信息

130

The collecting of detailed information triggered by monitor resource %1 error has been started (timeout=%2).

开始收集监视资源检测到$1监视异常时的详细信息。

-

rm

信息

131

The collection of detailed information triggered by monitor resource %1 error has been completed.

完成收集监视资源检测到$1收集监视异常查出时的详细信息。

-

rm

警告

132

The collection of detailed information triggered by monitor resource %1 error has been failed (%2).

收集监视资源检测到$1监视异常时的详细信息失败。

-

rm

信息

140

Process %1 has started.

启动了进程%1。

-

rm

警告

141

Process %1 has restarted

重启了进程%1。

-

rm

警告

142

Process %1 does not exist.

不存在进程%1。

-

rm

错误

143

Process %1 was restarted %2 times, but terminated abnormally.

虽%2次重启了进程%1,但异常结束。

内存不足或者OS资源不足。请确认。

rm

错误

150

The cluster is stopped since process %1 was terminated abnormally.

因进程%1异常结束,停止集群。

内存不足或者OS资源不足。请确认。

rm

错误

151

The server is shut down since process %1 was terminated abnormally.

因进程%1异常结束,关闭服务器。

内存不足或者OS资源不足。请确认。

rm

错误

152

The server is restarted since process %1 was terminated abnormally.

因进程%1异常结束,重启服务器。

内存不足或者OS资源不足。请确认。

rm

错误

160

Monitor resource %1 cannot be controlled since the license is invalid.

因License无效,无法控制监视资源%1。

请注册有效的License。

rm

信息

170

Recovery script has been executed since an error was detected in monitoring %1.

在%1的监视中查出了异常,因此执行了复归脚本。

-

rm

错误

171

An attempt was made to execute the recovery script due to a %1 monitoring failure, but failed.

由于%1的监视异常实行了复归脚本,结果失败。

请确认复归脚本失败的原因,并采取对策。

rm

信息

180

Dummy Failure of monitor resource %1 is enabled.

开始监视资源%1的模拟故障。

-

rm

信息

181

Dummy Failure of monitor resource %1 is disabled.

停止了监视资源%1的模拟故障。

-

rm

信息

182

Dummy Failure of all monitor will be enabled.

开始所有监视资源的模拟故障。

-

rm

信息

183

Dummy Failure of all monitor will be disabled.

停止监视资源%1的模拟故障。

-

rm

警告

184

An attempt was made to enable Dummy Failure of monitor resource %1, but failed.

开始监视资源%1的模拟故障失败。

请确认监视资源%1是否支持模拟故障功能。

rm

警告

185

An attempt was made to disable Dummy Failure of monitor resource %1, but failed.

停止监视资源%1的模拟故障失败。

请确认监视资源%1是否支持模拟故障功能。

rm

信息

190

Recovery action caused by monitor resource error is disabled.

监视资源异常时的复归动作无效。

-

rm

信息

191

Recovery action caused by monitor resource error is enabled.

监视资源异常时的复归动作执行有效。

-

rm

警告

192

Ignored the recovery action in monitoring %1 because recovery action caused by monitor resource error is disabled.

由于监视资源异常时的复归动作为无效,因此监视资源%1的复归动作被忽视。

-

rm

警告

193

Recovery action at timeout occurrence was disabled, so the recovery action of monitor %1 was not executed.

由于发生超时时的复归动作为无效,因此监视资源%1的复归动作未被执行。

-

rm

警告

200

Since there is no other normally running server, the final action(%1) for the error detection of monitor resource %2 was suppressed.

由于没有其他正常运行中的服务器,因此,查出监视资源异常时%2,控制最终动作(%1)。

-

rm

警告

220

Recovery will not be executed since any recovery target is not active.

由于存在未启动状态的复归对象,无法进行复归动作。

-

rm

警告

221

Recovery will not be executed because the group that is set for the recovery target is not active.

由于设置为复归对象的组资源所属的失效切换组为停止状态,因此不进行复归动作。

-

mm

信息

901

Message monitor has been started.

消息监视(消息接收监视的相关模块)已开始。

-

mm

错误

902

Failed to initialize message monitor. (%1 : %2)

消息监视(消息接收监视的相关模块)初始化失败。

内存不足或者OS资源不足。请确认。

mm

警告

903

An error of %1 type and %2 device has been detected. (%3)

接收到范畴%1,关键词%2,的外部错误%3。

-

mm

错误

905

An error has been detected in monitoring %1. (%2)

对监视资源%1的监视中,查出异常。

请按照%2的消息采取对策。

mm

错误

906

Message monitor was terminated abnormally.

消息监视(消息接收监视的相关模块)异常结束。

内存不足或者OS资源不足。请确认。

mm

错误

907

Failed to execute action. (%1)

复归操作执行失败。

内存不足或者OS资源不足。请确认。

mm

信息

908

The system will be stopped.

关闭OS。

-

mm

信息

909

The cluter daemon will be stopped.

停止集群。

-

mm

信息

910

The system will be rebooted.

重启OS。

-

mm

信息

911

Message monitor will be restarted.

重启消息监视(消息接收监视的相关模块)。

-

mm

信息

912

Received a message by SNMP Trap from external. (%1 : %2)

接收到SNMP Trap 的消息。消息中包含了项目 (%1)的信息 (%2)。

-

trnsv

信息

1

There was a notification from external (IP=%1), but it was denied.

虽收到来自%1的连接请求,未被许可。

-

trnsv

信息

10

There was a notification (%1) from external (IP=%2).

从%2收到执行处理(%1)的请求。

-

trnsv

信息

20

Recovery action (%1) of monitoring %2 has been executed because a notification arrived from external.

根据外部通知开始执行监视资源%2异常时动作(%1)。

-

trnsv

信息

21

Recovery action (%1) of monitoring %2 has been completed.

成功执行监视资源%2的异常时动作(%1)。

-

trnsv

错误

22

Attempted to recovery action (%1) of monitoring %2, but it failed.

执行监视资源%2的异常动作(%1)后失败。

请确认环境是否允许执行异常动作。

trnsv

信息

30

Action (%1) has been completed.

操作(%1)执行成功。

-

trnsv

警告

31

Attempted to execute action (%1), but it failed.

操作(%1)执行失败。

请确认环境是否允许执行操作。

trnsv

信息

40

Script before action of monitoring %1 has been executed.

执行监视资源(%1)的异常动作前脚本。

-

trnsv

信息

41

Script before action of monitoring %1 has been completed.

监视资源(%1)的异常动作前脚本执行成功。

-

trnsv

错误

42

Attempted to execute script before action of monitoring %1, but it failed.

监视资源(%1)的异常动作前脚本执行失败。

请确认环境是否允许执行异常动作。

lanhb

警告

71

Heartbeats sent from HB resource %1 of server %2 are delayed.(timeout=%3*%4 actual-time=%5 delay warning rate=%6)

服务器%2的HB资源%1的心跳确认发生延迟。当前的超时值为 %3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认服务器%2的负载情况,并清除负载。
如果仍然发生HB超时,则需要延长HB超时时间。

lanhb

警告

72

Heartbeats sent from HB resource %1 are delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6)

发送HB资源%1的心跳信息时发生延迟。收信服务器为%2。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。
如果仍然发生HB超时,则需要延长HB超时时间。

lanhb

警告

73

Heartbeats received by HB resource %1 are delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6)

接收HB资源%1的心跳信息时发生延迟。发信的源服务器为%2。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。
如果仍然发生HB超时,则需要延长HB超时时间。

lankhb

警告

71

Heartbeats sent from HB resource %1 of server %2 are delayed.(timeout=%3*%4 actual-time=%5 delay warning rate=%6)

服务器%2的HB资源%1的心跳确认发生延迟。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认服务器%2的负载情况,并清除负载。
如果仍然发生HB超时,则需要延长HB超时时间。

lankhb

警告

73

Heartbeats received from HB resource %1 is delayed.(timeout=%2*%3 actual-time=%4 delay warning rate=%5)

接收HB资源 %1 的心跳信息时发生延迟。发信的源服务器为%2。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。
如果仍然发生HB超时,则需要延长HB超时时间。

diskhb

错误

10

Device(%1) of resource(%2) does not exist.

设备不存在。

请确认配置信息。

diskhb

错误

11

Device(%1) of resource(%2) is not a block device.

设备不存在。

请确认配置信息。

diskhb

错误

12

Raw device(%1) of resource(%2) does not exist.

设备不存在。

请确认配置信息。

diskhb

错误

13

Binding device(%1) of resource(%2) to raw device(%3) failed.

设备不存在。

请确认配置信息。

diskhb

错误

14

Raw device(%1) of resource(%2) has already been bound to other device.

资源%2的raw设备 %1捆绑在其他设备上。

请设置尚未使用的raw设备。

diskhb

错误

15

File system exists on device(%1) of resource(%2).

资源%2的设备%1 中存在文件系统。

如果使用设备%1 ,则请删除文件系统。

diskhb

情報

20

Resource %1 recovered from initialization error.

资源%1从初始化错误中已复原。

-

diskhb

警告

71

Heartbeats sent from HB resource %1 of server %2 are delayed.(timeout=%3*%4 actual-time=%5 delay warning rate=%6)

服务器 %2 的HB资源 %1 的心跳确认发生延迟。当前的超时值为 %3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认服务器 %2 的负载情况,并清除负载。
如果仍然发生HB超时,则需要延长HB超时时间。

diskhb

警告

72

Heartbeat write of HB resource %1 is delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6).

发送HB资源%1的心跳信息时发生延迟。收信服务器为%2。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。
如果仍然发生HB超时,则需要延长HB超时时间。

diskhb

警告

73

Heartbeat read of HB resource %1 is delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6)

接收HB资源%1的心跳信息时发生延迟。发信的源服务器为%2。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。
如果仍然发生HB超时,则需要延长HB超时时间。

monp

错误

1

An error occurred when initializing monitored process %1. (status=%2)

监视对象进程 %1的初始化错误。

可执行是内存不足,OS资源不足,或集群配置信息不准确。请确认。
如果未登录配置信息,将会输出下列进程的消息,但是没有问题。
+ mdagnt
+ webmgr
+ webalert

monp

错误

2

Monitor target process %1 terminated abnormally. (status=%2)

监视对象进程 %1异常结束。

可执行是内存不足或OS资源不足。请确认。

monp

信息

3

Monitor target process %1 will be restarted.

重启监视对象进程 %1 。

-

monp

信息

4

The cluster daemon will be stopped since the monitor target process %1 terminated abnormally.

由于监视对象进程 %1的异常结束,停止服务器。

-

monp

错误

5

Attempted to stop the cluster daemon, but failed.

欲停止服务器,但失败。

可执行是服务器未启动,内存不足或OS资源不足。请确认。

monp

信息

6

The system will be stopped since the monitor target process %1 terminated abnormally.

由于监视对象进程%1的异常结束,停止系统。

-

monp

错误

7

Attempted to stop the system, but failed. (status=%#x)

欲停止系统,但失败。

可执行是集群未启动,内存不足或OS资源不足。请确认。

monp

信息

8

System will be rebooted since monitor target process %1 terminated abnormally.

由于监视对象进程%1的异常结束,重启系统。

-

monp

错误

9

Attempted to reboot the system, but failed. (status=%#x)

欲重启系统,但失败。

可执行是集群未启动,内存不足或OS资源不足。请确认。

cl

信息

1

There was a request to start %1 from the %2.

出现从%2发出的启动%1的请求。

-

cl

信息

2

There was a request to stop %1 from the %2.

出现从%2发出的停止%1的请求。

-

cl

信息

3

There was a request to suspend %1 from the %2.

出现从%2发出的挂起%1的请求。

-

cl

信息

4

There was a request to resume %s from the %s.

出现从%2发出的复原%1的请求。

-

cl

错误

11

A request to start %1 failed(%2).

%1的启动请求失败。

请确认服务器的状态。

cl

错误

12

A request to stop %1 failed(%2).

%1的停止请求失败。

请确认服务器的状态。

cl

错误

13

A request to suspend %1 failed(%2).

%1的挂起请求失败。

请确认服务器的状态。

cl

错误

14

A request to resume %1 failed(%2).

%1的复原请求失败。

请确认服务器的状态。

cl

错误

15

A request to %1 cluster failed on some servers(%2).

集群的%1请求在某些服务器上失败。

请确认服务器的状态。

cl

错误

16

A request to start %1 failed on some servers(%2).

某些服务器中%1的启动失败。

请确认%1的状态。

cl

错误

17

A request to stop %1 failed on some servers(%2).

某些服务器中%1的停止失败。

请确认%1的状态。

cl

警告

18

Automatic start is suspended because the cluster service was not stopped according to the normal procedure.

由于没有设置了"关机后自动启动",因此中止了自动启动。

为启动集群服务,请通过Cluster WebUI或使用clpcl命令启动集群服务。

cl

警告

20

A request to start %1 failed because cluster is running(%2).

由于集群已经启动,%1启动失败。

请确认集群状态。

cl

警告

21

A request to stop %1 failed because cluster is running(%2).

由于集群已经启动, %1停止失败。

请确认集群状态。

mail

错误

1

The license is not registered. (%1)

请购买并注册License。

-

mail

错误

2

The trial license has expired in %1. (%2)

请注册有效License。

-

mail

错误

3

The registered license is invalid. (%1)

请注册有效License。

-

mail

错误

4

The registered license is unknown. (%1)

请注册有效License。

-

mail

错误

5

mail failed(%s).(SMTP server: %s)

邮件通报失败。

请确认是否发生了SMTP服务器错误,或与SMTP服务器的通信是否出现问题。

mail

信息

6

mail successed.(SMTP server: %s)

邮件通报成功。

-

userw

警告

1

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

通过%1的监视查出监视延迟。当前的超时值为%2(秒) x %3(1秒左右的tick count)。查出延迟时的实测值为 %4(tick count),超出延迟警告比例 %5(%)。

请确认检测出监视延迟的服务器的复合状态,并且减轻负荷。

如果检测出监视超时,则需要延长监视超时时间。

vipw

警告

1

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

通过%1的监视查出监视延迟。当前的超时值为%2(秒) x %3(1秒左右的tick count)。查出延迟时的实测值为 %4(tick count),超出延迟警告比例 %5(%)。

请确认检测出监视延迟的服务器的复合状态,并且减轻负荷。

如果检测出监视超时,则需要延长监视超时时间。

ddnsw

警告

1

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

通过%1的监视查出监视延迟。当前的超时值为%2(秒) x %3(1秒左右的tick count)。查出延迟时的实测值为 %4(tick count),超出延迟警告比例 %5(%)。

请确认检测出监视延迟的服务器的复合状态,并且减轻负荷。

如果检测出监视超时,则需要延长监视超时时间。

apisv

信息

1

There was a request to stop cluster from the %1(IP=%2).

%1要求服务器停止。

-

apisv

信息

2

There was a request to shutdown cluster from the %1(IP=%2).

%1要求服务器关机。

-

apisv

信息

3

There was a request to reboot cluster from the %1(IP=%2).

%1要求服务器重启。

-

apisv

信息

4

There was a request to suspend cluster from the %1(IP=%2).

%1要求服务器挂机。

-

apisv

信息

10

There was a request to stop server from the %1(IP=%2).

%1要求服务器停止。

-

apisv

信息

11

There was a request to shutdown server from the %1(IP=%2).

%1要求服务器关机。

-

apisv

信息

12

There was a request to reboot server from the %1(IP=%2).

%1要求服务器重启。

-

apisv

信息

30

There was a request to start group(%1) from the %2(IP=%3).

%2要求组%1的启动。

-

apisv

信息

31

There was a request to start all groups from the %1(IP=%2).

%1要求所有组的启动。

-

apisv

信息

32

There was a request to stop group(%1) from the %2(IP=%3).

%2要求组%1的停止。

-

apisv

信息

33

There was a request to stop all groups from the %1(IP=%2).

%1要求所有组的停止。

-

apisv

信息

34

There was a request to restart group(%1) from the %2(IP=%3).

%2要求组%1的重启。

-

apisv

信息

35

There was a request to restart all groups from the %1(IP=%2).

%1要求所有组的重启。

-

apisv

信息

36

There was a request to move group(%1) from the %2(IP=%3).

%2要求组%1的移动。

-

apisv

信息

37

There was a request to move group from the %1(IP=%2).

%1要求组的移动。

-

apisv

信息

38

There was a request to failover group(%1) from the %2(IP=%3).

%2要求组%1的失效切换。

-

apisv

信息

39

There was a request to failover group from the %1(IP=%2).

%1要求组的失效切换。

-

apisv

信息

40

There was a request to migrate group(%1) from the %2(IP=%3).

有来自%2的组%1的移动请求。

-

apisv

信息

41

There was a request to migrate group from the %1(IP=%2).

有来自%2的组的移动请求。

-

apisv

信息

42

There was a request to failover all groups from the %1(IP=%2).

有来自%2的组失效切换请求。

-

apisv

信息

43

There was a request to cancel waiting for the dependence destination group of group the %1 was issued from %2.

%2要求取消组%1的依存目标组等待处理。

-

apisv

信息

50

There was a request to start resource(%1) from the %2(IP=%3).

%2要求资源%1的启动。

-

apisv

信息

51

There was a request to start all resources from the %1(IP=%2).

%1要求所有资源的启动。

-

apisv

信息

52

There was a request to stop resource(%1) from the %2(IP=%3).

%2要求资源%1的停止。

-

apisv

信息

53

There was a request to stop all resources from the %1(IP=%2).

%1要求所有资源的停止。

-

apisv

信息

54

There was a request to restart resource(%1) from the %2(IP=%3).

%2要求资源%1的重启。

-

apisv

信息

55

There was a request to restart all resources from the %1(IP=%2).

%1要求所有资源的重启。

-

apisv

信息

60

There was a request to suspend monitor resources from the %1(IP=%2).

出现从%1发出的监视资源挂起请求。

-

apisv

信息

61

There was a request to resume monitor resources from the %1(IP=%2).

出现从%1发出的监视资源复原请求。

-

apisv

信息

62

There was a request to enable Dummy Failure of monitor resources from the %1(IP=%2).

出现从%1发出的监视资源模拟故障开始请求。

-

apisv

信息

63

There was a request to disable Dummy Failure of monitor resources from the %1(IP=%2).

出现从%1发出的监视资源模拟故障停止请求。

-

apisv

错误

101

A request to stop cluster was failed(0x%08x).

服务器停止失败。

请确认服务器的状态。

apisv

错误

102

A request to shutdown cluster was failed(0x%08x).

服务器关机失败。

请确认服务器的状态。

apisv

错误

103

A request to reboot cluster was failed(0x%08x).

服务器重启失败。

请确认服务器的状态。

apisv

错误

104

A request to suspend cluster was failed(0x%08x).

服务器挂机失败。

请确认服务器的状态。

apisv

错误

110

A request to stop server was failed(0x%08x).

服务器停止失败。

请确认服务器的状态。

apisv

错误

111

A request to shutdown server was failed(0x%08x).

服务器关机失败。

请确认服务器的状态。

apisv

错误

112

A request to reboot server was failed(0x%08x).

服务器重启失败。

请确认服务器的状态。

apisv

错误

113

A request to server panic was failed(0x%08x).

服务器Panic失败。

请确认服务器状态。

apisv

错误

114

A request to server reset was failed(0x%08x).

服务器重置失败。

请确认服务器状态。

apisv

错误

115

A request to server sysrq was failed(0x%08x).

SYSRQPanic失败。

请确认服务器状态。

apisv

错误

116

A request to KA RESET was failed(0x%08x).

Keepalive重置失败。

请确认服务器状态。

apisv

错误

117

A request to KA PANIC was failed(0x%08x).

Keepalive Panic失败。

请确认服务器状态。

apisv

错误

118

A request to BMC RESET was failed(0x%08x).

BMC重置失败。

请确认服务器状态。

apisv

错误

119

A request to BMC PowerOff was failed(0x%08x).

BMC关闭电源失败。

请确认服务器状态。

apisv

错误

120

A request to BMC PowerCycle was failed(0x%08x).

BMC 电源循环失败。

请确认服务器状态。

apisv

错误

121

A request to BMC NMI was failed(0x%08x).

BMC NMI失败。

请确认服务器状态。

apisv

错误

130

A request to start group(%1) was failed(0x%08x).

组(%1)的启动失败。

请根据rc将输出的组启动失败的消息,进行相应处理。

apisv

错误

131

A request to start all groups was failed(0x%08x).

全组的启动失败。

同上

apisv

错误

132

A request to stop group(%1) was failed(0x%08x).

组(%1)的停止失败。

请根据rc输出的组停止失败消息,进行相应处理。

apisv

错误

133

A request to stop all groups was failed(0x%08x).

全组的停止失败。

同上

apisv

错误

134

A request to restart group(%1) was failed(0x%08x).

组(%1)的重启失败。

请根据rc输出的组停止失败的错误消息采取对策。

apisv

错误

135

A request to restart all groups was failed(0x%08x).

全组重启失败。

同上

apisv

错误

136

A request to move group(%1) was failed(0x%08x).

组(%1)的移动失败。

请根据rc输出的组移动失败消息,进行相应处理。

apisv

错误

137

A request to move all groups was failed(0x%08x).

所有组的移动失败。

同上

apisv

错误

138

A request to failover group(%1) was failed(0x%08x).

组(%1)的失效切换失败。

请根据rc输出的组失效切换失败消息,进行相应处理。

apisv

错误

139

A request to failover group was failed(0x%08x).

所有组失效切换失败。

同上

apisv

错误

140

A request to migrate group(%1) was failed(0x%08x).

组(%1)的移动失败。

请根据rc输出的组失效切换失败的错误消息采取对策。

apisv

错误

141

A request to migrate all groups was failed(0x%08x).

所有组的移动失败。

同上

apisv

错误

142

A request to failover all groups was failed(0x%08x).

所有组的失效切换失败。

同上

apisv

错误

143

A request to cancel waiting for the dependency destination group of group %1 has failed(0x%08x).

取消组%1的依存目标组等待处理失败。

同上

apisv

错误

150

A request to start resource(%1) was failed(0x%08x).

资源(%1)的启动失败。

请根据rc输出的资源启动失败消息,进行相应处理。

apisv

错误

152

A request to stop resource(%1) was failed(0x%08x).

资源(%1)的停止失败。

请根据rc输出的资源停止失败消息,进行相应处理。

apisv

错误

154

A request to restart resource(%1) was failed(0x%08x).

资源(%1)的重启动失败

请根据rc输出的资源重启失败消息,进行相应处理。

apisv

错误

155

A request to restart all resources was failed(0x%08x).

所有资源重启失败。

同上

apisv

错误

160

A request to suspend monitor resource was failed(0x%08x).

监视资源的挂起失败。

请确认监视资源的状态。

apisv

错误

161

A request to resume monitor resource was failed(0x%08x).

监视资源的复原失败。

同上

apisv

错误

162

A request to enable Dummy Failure of monitor resource was failed(0x%08x).

开始监视资源的模拟故障失败。

请确认监视资源的状态。

apisv

错误

163

A request to disable Dummy Failure of monitor resource was failed(0x%08x).

结束监视资源的模拟故障失败。

同上

cfmgr

信息

1

The cluster configuration data has been uploaded by %1.

已上传配置信息。

-

sra

错误

1

system monitor closed because reading the SG file failed.

在SG文件的读入处理中发生异常。

请确认另外输出的消息。

sra

错误

2

Opening an ignore file failed. file name = %1, errno = %2.
%1:文件名
%2:errno

无法打开SG文件(%1)。

请重启集群或执行挂起/复原。

sra

错误

3

Reading a configuration file failed.

在SG文件的读入处理中发生异常。

请确认另外输出的消息。

sra

错误

4

Trace log initialization failed.

内部日志文件初始化失败。

请重启集群或执行挂起/复原。

sra

错误

5

Creating a daemon process failed.

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

错误

6

Reading a service configuration file failed.

在SG文件的读入处理中发生异常。

请确认另外输出的消息。

sra

错误

7

mlock() failed.

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

错误

8

A daemon process could not be created.

SystemResource

Agent启动(进程的Daemon化)失败。

内存不足或者OS资源不足。请确认。

sra

错误

9

stdio and stderr could not be closed.

SystemResource

Agent启动(关闭标准输入,输出)失败。

内存不足或者OS资源不足。请确认。

sra

错误

10

A signal mask could not be set up.

SystemResource

Agent启动(信号掩码的设置)失败。

内存不足或者OS资源不足。请确认。

sra

错误

11

A configuration file error occurred. (1) [line = %1, %2]
%1:行
%2:设定值

SystemResource

Agent启动(SG文件的读入)失败。

请重启集群或执行挂起/复原。

sra

错误

12

A configuration file error occurred. (2) [line=%1, %2]
%1:行
%2:设定值

SystemResource

Agent启动(SG文件的读入)失败。

请重启集群或执行挂起/复原。

sra

错误

13

A plugin event configuration file error occurred. The DLL pointer was not found. [line = %1, %2]
%1:行
%2:设定值

SystemResource

Agent启动(登录插件事件)失败。

请重启集群或执行挂起/复原。

sra

错误

14

malloc failed. [event structure]

SystemResource

Agent启动(登录插件事件)失败。

请重启集群或执行挂起/复原。

sra

错误

15

A service configuration file error occurred due to an invalid event. [%1]
%1: 设定值
A service configuration file error occurred due to an invalid event. [%1]
%1:设定值

SystemResourceAgent

启动(服务文件的读入)失败。

sra

错误

16

A plugin event configuration file
error occurred due to %1.
%1:错误原因
A plugin event configuration file
error occurred due to %1.
%1:错误原因
SystemResourceAgent的启动
(插件事件文件的读入)失败。

sra

错误

17

Internal error occurred.

Internal error occurred.

发生共享内存访问错误。

sra

警告

101

Opening an SG file failed. file name = %1, errno = %2
%1:文件名
%2:errno

无法打开SG文件(%1)。

请重新创建SG文件,并重启集群或执行挂起/复原。

sra

警告

102

malloc(3) fail(1) . [%1]
%1:函数名

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

103

malloc(3) fail(2). [%1]
%1:函数名

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

104

An internal error occurred. rename(2) error (errno = %1)
%1:errno

本产品异常结束。

请参考之前输出的系统日志消息。

sra

警告

105

realloc(3) fail. [%1].
%1:函数名

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

106

A script timed out. (%1 %2)
%1:脚本文件名
%2:参数

发生内部错误。

请确认服务器的负载情况并清除负载。

sra

警告

107

[%1] execvp(2) fail (%2).
%1:脚本名
%2:errno

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

108

[%1] fork fail (%2). Suspended.
%1:脚本名
%2:errno

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

109

malloc(3) fail. [%1]
%1:函数名

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

信息

201

A script was executed. (%1)
%1:脚本名

执行了脚本(%1)。

-

sra

信息

202

Running a script finished. (%1)
%1:脚本名

脚本正常终止。

-

sra

信息

203

An %1 event succeeded.
%1:执行的事件类型
执行了操作管理命令。
%1输出执行的事件类型(boot,shutdown,stop,start,flush)。

-

sra

错误

301

A process resource error was detected. (%1, type = cpu, pid = %2, %3)
%1:监视资源名
%2:进程ID
%3:进程名

通过特定进程的CPU使用率监视查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = memory leak, pid = %2, %3)
%1:监视资源名
%2:进程ID
%3:进程名

通过特定进程的内存使用量监视那个查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = file leak, pid = %2, %3)
%1:监视资源名
%2:进程ID
%3:进程名

通过特定进程的打开文件数(最大值)监视查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = open file, pid = %2, %3)
%1:监视资源名
%2:进程ID
%3:进程名

通过特定检查的打开文件数(内核上限值)监视查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = thread leak, pid = %2, %3)
%1:监视资源名
%2:进程ID
%3:进程名

通过特定进程的线程数监视查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = defunct, pid = %2, %3)
%1:监视资源名
%2:进程ID
%3:进程名

通过僵死进程监视查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = same name process, pid = %2, %3)
%1:监视资源名
%2:进程ID
%3:进程名

通过同一名称进程监视查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = cpu)
%1:监视资源名

通过系统的CPU使用率监视查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = memory)
%1:监视资源名

通过系统的总内存使用量监视查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = swap)
%1:监视资源名

通过系统的总虚拟内存使用量监视查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = file)
%1:监视资源名

通过系统的总打开文件数监视查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = thread)
%1:监视资源名

通过系统的总线程数监视查出异常。

请确认监视异常的原因。

sra

错误

303

A system resource error was detected. (%1, type = number of process, user name = %2)
%1:监视资源名
%2:用户名

通过启动系统的每个用户的进程数监视查出异常。

请确认监视异常的原因。

sra

错误

304

A disk resource error was detected. (%1, type = used rate, level = NOTICE, %2)
%1:监视资源名
%2:Mount点

通过磁盘使用率监视查出通知级别的异常。

请确认监视异常的原因。

sra

错误

304

A disk resource error was detected. (%1, type = used rate, level = WARNING, %2)
%1:监视资源名
%2:Mount点

通过磁盘使用率监视查出警告级别的异常。

请确认监视异常的原因。

sra

错误

304

A disk resource error was detected. (%1, type = free space, level = NOTICE, %2)
%1:监视资源名
%2:Mount点

通过磁盘剩余容量监视查出通知级别的异常。

请确认监视异常的原因。

sra

错误

304

A disk resource error was detected. (%1, type = free space, level = WARNING, %2)
%1:监视资源名
%2:Mount点

通过磁盘剩余容量监视查出警告级别的异常。

请确认监视异常的原因。

sra

警告

401

zip/unzip package is not installed.

System Resource Agent收集的统计信息压缩失败。

请确认系统中是否已安装zip或者unzip的包。

lcns

信息

1

The number of licenses is %1. (Product name:%2)

集群的License数为%1。
%1:License数
%2:产品名

-

lcns

信息

2

The trial license is valid until %1. (Product name:%2)

试用版License的有效期到%1为止。
%1:试用结束日期
%2:产品名

-

lcns

警告

3

The number of licenses is insufficient. The number of insufficient licenses is %1. (Product name:%2)

License不足。License不足的数为%1。
%1:不足License数
%2:产品名
请购买不够的部分,进行注册。

lcns

错误

4

The license is not registered. (Product name:%1)

尚未注册License。
%1:产品名
请购买License并进行注册。

lcns

错误

5

The trial license has expired in %1. (Product name:%2)

试用版License已经过期。
%1:试用结束日期
%2:产品名
请注册有效的
License。

lcns

错误

6

The registered license is invalid. (Product name:%1, Serial No:%2)

注册的License无效。
%1:产品名
%2:序列号
请注册有效的
License。

lcns

错误

7

The registered license is unknown. (Product name:%1)

注册的License状态不明。
%1:产品名
请注册有效的
License。

lcns

错误

8

The trial license is valid from %1. (Product name:%2)

试用版License尚未到生效期。
%1:试用开始日期
%2:产品名
请注册有效的
License。

lcns

信息

9

The fixed term license is valid until %1. (Product name:%2)

期间定制License的有效期到%1为止。
%1:有效期结束日期
%2:产品名

-

lcns

错误

10

The fixed term license has expired in %1. (Product name:%2)

期间定制License已经过期。
%1:有效期结束日期
%2:产品名
请注册有效的
License。

reg

信息

1

The number of reboots due to group resource errors has been reset.

重置重启次数(组资源)

-

reg

信息

2

The number of reboots due to monitor resource errors has been reset.

重置重启次数(监视资源)

-

webmgr

警告

21

HTTPS configuration isn't correct, HTTPS mode doesn't work. Please access WebManager by HTTP mode.

因为HTTPS的设置不正确,通过HTTPS无法使用WebManager。请通过HTTP 连接到WebManager。

-

4.2. 驱动程序syslog消息

4.2.1. 内核模式LAN心跳驱动程序

模块类型
事件
分类
事件ID
消息
描述
处理方法

clpkhb

信息

101

Kernel Heartbeat was initialized successfully. (major=%1, minor=%2)

clpkhb驱动加载成功。

-

clpkhb

信息

102

Kernel Heartbeat was released successfully.

clpkhb驱动卸载成功。

-

clpkhb

错误

103

Can not register miscdev on minor=%1. (err=%2)

clpkhb驱动加载失败。

-

clpkhb

错误

104

Can not deregister miscdev on minor=%1. (err=%2)

clpkhb驱动卸载失败。

-

clpkhb

信息

105

Kernel Heartbeat was initialized by %1.

clpkhb驱动程序被[%1]模块正常初始化。

-

clpkhb

信息

106

Kernel Heartbeat was terminated by %1.

clpkhb驱动程序被[%1]模块正常结束。

-

clpkhb

错误

107

Can not register Kernel Heartbeat proc file!

clpkhb驱动用的proc文件创建失败。

-

clpkhb

错误

108

Version error.

clpkhb驱动的内部版本信息不正确。

请重新安装
EXPRESSCLUSTER。

clpkhb

信息

110

The send thread has been created. (PID=%1)

clpkhb驱动程序得到正常创建。
进程ID是[%1]。

-

clpkhb

信息

110

The recv thread has been created. (PID=%1)

clpkhb驱动程序的收信线程得到正常创建。
进程ID是[%1]。

clpkhb

错误

111

Failed to create send thread. (err=%1)

因为错误[%1],clpkhb驱动的发送线程创建失败。

-

clpkhb

错误

111

Failed to create recv thread. (err=%1)

因为错误[%1],clpkhb驱动的接收线程创建失败。

clpkhb

信息

112

Killed the send thread successfully.

clpkhb驱动程序的发信线程得到正常停止。

-

clpkhb

信息

112

Killed the recv thread successfully.

clpkhb驱动程序的收信线程得到正常停止。

clpkhb

信息

113

Killed the recv thread successfully.

clpkhb驱动退出。

-

clpkhb

信息

114

Killed the recv thread successfully.

clpkhb驱动停止。

-

clpkhb

信息

115

Kernel Heartbeat has been stopped

clpkhb驱动程序已经正常停止。

-

clpkhb

错误

120

Failed to create socket to send %1 packet. (err=%2)

因为错误[%2],[%1](HB/DOWN/KA)数据包发送所用Socket创建失败。

-

clpkhb

错误

120

Failed to create socket to receive packet. (err=%2)

因为错误[%2],数据包接收所用Socket创建失败。

clpkhb

错误

121

Failed to create sending %1 socket address. (err=%2)

[%1](HB/DOWN/KA)发送用Socket设置失败。

物理内存可执行不足。请增加物理内存或退出不使用的应用程序。

clpkhb

错误

122

Failed to create %1 socket address. (err=%2)

[%1](HB/DOWN/KA)发送用Socket设置失败。

物理内存可执行不足。请增加物理内存或退出不使用的应用程序。

clpkhb

错误

123

Failed to bind %1 socket. (err=%2)

[%1](HB/DOWN/KA/recv)所用Socket绑定失败。

请确认OS的状态。
用于clpkhb的通信端口可执行已经被其他应用程序使用。请确认通信端口的使用状况。
请确认私网LAN I/F中设置的IP地址是否错误,并确认集群配置信息中的服务器属性。

clpkhb

错误

125

Failed to send %1 data to %2. (err=%3)

[%1](HB/DOWN/KA)数据不能发送到[%2]。

请确认用于clpkhb通信的网络状态。
请确认对方服务器的状态。
请确认配置信息是否有问题。

clpkhb

错误

126

Failed to receive data. (err=%3)

数据接收失败。

对方服务器可执行宕机。请确认。
对方服务器没有宕机时,请确认用于clpkhb的网络的状态。

clpkhb

信息

127

  1. Received an invalid packet. Magic is not correct!

  2. Received an invalid packet from %1. Magic(%2) is not correct!

  1. 接收到不正确的包。忽略该包。

  2. 从[%1]收到不正确的数据包[%2]。忽略。

可执行其他应用程序在向用于clpkhb的端口发送数据。请确认端口的使用状况。

clpkhb

错误

128

  1. Received an invalid packet. %1 is not correct!

  2. Received an invalid packet from %1. %2 is not correct!

  1. 接收到不正确的包。[%1]为包内不正确的地方(Resource priority/Source ip address)。

  2. 从[%1]收到不正确的数据包。数据包内不正确的地方是[%2](Resource priority/Source ip address)。

同上。

clpkhb

信息

129

Receiving operation was interrupted by ending signal!

收信线程通过结束信号退出。

-

clpkhb

信息

130

  1. clpka: <server priority: %1> <reason: %2> <process name: %3> system reboot.

  2. clpka: <server priority: %1> <source: %2> <exit code: %3> system reboot.

  1. 接收到来自其他服务器的重置通知。优先级别[%1]的服务器在[%3]进程发生[%2]异常,所以将进行重置。

  2. 接收到来自其他服务器的重置通知。优先级别[%1]的服务器,由于[%2]通过结束代码[%3]结束,所以将进行重置。

请确认发生重新设置的服务器的状态。

clpkhb

信息

131

  1. clpka: <server priority: %1> <reason: %2> <process name: %3> system panic.

  2. clpka: <server priority: %1> <source: %2> <exit code: %3> system panic.

  1. 接收到来自其他服务器的Panic通知。优先级别[%1]的服务器在[%3]进程发生[%2]异常,所以将进行Panic。

  2. 优先级别[%1]的服务器,由于[%2]通过结束代码[%3]结束,所以将进行Panic。

请确认发生Panic的服务器的状态。

clpkhb

错误

140

Reference an inaccessible memory area!

通过ioctl()与应用程序的数据收发失败。

请确认OS的状态。

clpkhb

错误

141

Failed to allocate memory!

内存确保失败。

物理内存可执行不足。请增加物理内存或退出不使用的应用程序。

clpkhb

错误

142

Invalid argument, %1!

传递给clpkhb驱动的参数不正确。

请确认设置是否正确。

clpkhb

警告

143

Local node has nothing with current resource.

传递给clpkhb驱动的心跳资源信息不正确。

同上。

4.2.2. KeepAlive驱动程序

模块类型

事件
分类

事件ID

消息

描述

处理方法

clpka

信息

101

Kernel Keepalive was initialized successfully. (major=%1, minor=%2)

clpka驱动程序被正常
加载。

-

clpka

信息

102

Kernel Keepalive was released successfully.

clpka驱动程序被正常
卸载。

-

clpka

错误

103

Can not register miscdev on minor=%1. (err=%2)

clpka驱动程序的加载
失败。

请确认是不是内核模式LAN心跳支持的Distribution,内核。

clpka

信息

105

Kernel Keepalive was Initialized by %1.

clpka驱动被正常初始化。

-

clpka

错误

107

Can not register Kernel Keepalive proc file!

clpka驱动所用的proc文件创建失败。

可执行是因为内存不足等导致内核没有正常运行。请增加物理内存或者结束不必要的应用程序。

clpka

错误

108

Version error.

clpka驱动的版本不正确。

请确认安装的clpka驱动是否为正规版本。

clpka

错误

111

Failed to create notify thread. (err=%1)

clpka驱动的线程创建失败。

可执行是因为内存不足等导致内核没有正常运行。请增加物理内存或者退出不适用的应用程序。

clpka

信息

130

Reboot tried.

根据设置,clpka驱动尝试重启机器。

-

clpka

信息

132

Kernel do nothing.

根据设置,clpka驱动没有执行任何操作。

-

clpka

错误

140

Reference an inaccessible memory area!

clpka驱动的版本信息不能传递给集群本体。

请确认安装的clpka驱动是否为正规版本。

clpka

错误

141

Failed to allocate memory!

物理内存不足。

物理内存不足。请增加物理内存或退出不使用的应用程序。

clpka

错误

142

Invalid argument, %1!

集群本体向clpka驱动传递的信息不正确。

请确认安装的clpka驱动是否为正规版本。

clpka

错误

144

Process (PID=%1) is not set.

试图通过集群之外的进程(%1)操作clpka驱动。

请确认是否存在错误访问clpka驱动的应用程序 (%1)。

4.3. 组资源启动/停止时的详细信息

4.3.1. EXEC资源

模块类型

分类

返值

消息

描述

处理方法

exec

错误

1

Termination code %1 was returned.

返回0以外的结束编码作为同步脚本或应用程序执行的结果。

对于脚本,可执行是脚本内容有问题。请确认脚本的记述是否正确。
对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。

exec

错误

1

Command was not completed within %1 seconds.

同步脚本或应用程序的执行未在指定时间内正常结束。

对于脚本,可执行是脚本内容有问题。请确认脚本的记述是否正确。
对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。
可执行从日志可以分别限定原因。

exec

错误

1

Command was aborted.

同步脚本或应用程序异常结束。

对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。
可执行是内存不足或OS资源不足。请确认。

exec

错误

1

Command was not found. (error=%1)

应用程序不存在。

应用程序的路径可执行不正确。请确认配置信息的应用程序的路径。

exec

错误

1

Command string was invalid.

应用程序的路径不正确。

请确认配置信息的应用程序的路径。

exec

错误

1

Log string was invalid.

日志输出目标的路径不正确。

请确认配置信息的日志输出目标的路径。

exec

错误

1

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

4.4. 监视资源异常时的详细信息

4.4.1. 软件RAID监视资源

模块类型

分类

返值

消息

描述

处理方法

Lmdw

警告

101

Device=(%1): Bad disks(%2) are detected in mirror disk.

镜像磁盘下面的物理磁盘部分损坏,处于[警告]状态。

镜像磁盘本身可以使用,但需要更换损坏的物理磁盘。

Lmdw

警告

102
190

Internal error.err=%1

显示发生内部错误。

可执行是内存不足或OS的资源不足。请确认。

Lmdw

警告

102
190

Config file error.(err=%1)

显示配置信息内容异常。

请确认配置信息是否正确。

Lmdw

警告

190

Soft RAID module has a problem. (err=%1)

Soft RAID关联的内核模块异常。

-

Lmdw

警告

190

Options or parameters are invalid.

显示发生命令参数错误。

请确认配置信息是否正确。

Lmdw

警告

190

Failed to read config file.(err=%1)

显示配置文件读取失败。

请确认配置信息是否存在。

Lmdw

警告

191

Device=(%1): Mirror disk is in recovery process (%2).

镜像磁盘[复归中]。

-

4.4.2. IP监视资源

模块类型

分类

返值

消息

描述

处理方法

Ipw

错误

5

Ping was failed by timeout. IP=%s...

由于ping命令超时导致失败。

可执行是系统高负荷,内存不足或OS资源不足。请确认。

Ipw

错误

31

Ping cannot reach. (ret=%1) IP=%2...

ping命令发出的包未到达。

请确认向该IP地址的 ping命令是否成功。ping命令失败时,请确认拥有该IP地址的机器的状态或网络界面的状态。

Ipw

警告

102

Ping was failed. (ret=%1) IP=%2...

ping命令失败。

可执行是内存不足或OS资源不足。请确认。

Ipw

警告

106
108~121

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

Ipw

警告

189

Internal error. (status=%1)

IP监视资源的监视处理因超时而失败。

可执行是内存不足或OS资源不足。请确认。

4.4.3. 磁盘监视资源

模块类型

分类

返值

消息

描述

处理方法

diskw

错误

12

Ioctl was failed. (err=%1) Device=%2

设备的控制失败。

请确认监视对象磁盘是否正确访问,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。

diskw

错误

14

Open was failed. (err=%1) File=%2

文件的打开失败。

请确认是否存在文件名相同的目录,监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是内存不足或OS资源不足。请确认。

diskw

错误

14

Open was failed. (err=%1) Device=%2

设备打开失败。

请确认是否存在文件名相同的目录,监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是内存不足或OS资源不足。请确认。

diskw

错误

16

Read was failed. (err=%1) Device=%2

从设备的读入失败。

请确认监视对象磁盘是否正确访问,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是内存不足或OS资源不足。请确认。

diskw

错误

18

Write was failed. (err=%1) File=%2

向文件的写入失败。

请确认监视对象磁盘是否正确访问,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是内存不足或OS资源不足。请确认。

diskw

错误

41

SG_IO failed. (sg_io_hdr_t info:%1 SG_INFO_OK_MASK: %2)

SG_IO失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否ON,或者监视对象磁盘中是否发生了其他异常。

diskw

错误

49

Already bound for other. Rawdevice=%1 Device=%2

RAW设备已经被其他设备绑定。。

设置的RAW设备已经能够被其他设备绑定。请通过Cluster WebUI 更改RAW设备名称。

diskw

错误

55

Bind was failed. Rawdevice=%1 Device=%2

绑定失败。

绑定失败。请通过Cluster WebUI确认RAW设备名称。

diskw

错误

56

Lseek was failed by timeout. Device=%1

lseek失败。

可执行是系统高负荷,内存不足或OS资源不足。请确认。

diskw

错误

57

Fdatasync was failed by timeout. Device=%1

fdatasync失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

diskw

警告

101

Ioctl was failed by timeout. Device=%1

设备的控制失败。

请确认监视对象磁盘是否正确访问,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

Diskw

警告

101

Open was failed by timeout. File=%1

文件的打开由于超时而失败。

请确认监视对象磁盘是否正确访问,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

Diskw

警告

101

Open was failed by timeout. Device=%1

设备打开由于超时而失败。

请确认监视对象磁盘是否正确访问,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

Diskw

警告

101

Read was failed by timeout. Device=%1

从设备的读入由于超时失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。

可执行是系统高负荷,内存不足或OS资源不足。请确认。

Diskw

警告

101

Write was failed by timeout. File=%1

向文件的写入由于超时而失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

Diskw

警告

101

Bind was failed. Rawdevice=%1 Device=%2

绑定失败。

绑定失败。请通过Cluster WebUI确认RAW设备名称。

Diskw

警告

101

Stat was failed. (err=%1) Device=%2

stat失败。

stat失败。请通过Cluster WebUI确认设备名称。

Diskw

警告

101

Popen was failed. (err=%1)

popen失败。

popen失败。可执行是内存不足或OS资源不足。请确认。

Diskw

警告

101

Option was invalid.

参数不正确。

请确认集群配置信息是否正确。

Diskw

警告

190

Option was invalid.

参数不正确。

请确认集群配置信息是否正确。

Diskw

警告

101

Internal error. (status=%1)

发生内部错误。

可执行是内存不足或OS资源不足。请确认。

Diskw

警告

190

Internal error. (status=%1)

发生内部错误。

可执行是内存不足或OS资源不足。请确认。

Diskw

警告

190

Parameter was invalid. File=%1

指定的文件名不正确。

请不要指定以/dev开头的设备文件。请指定一般的文件。

Diskw

警告

190

Device was invalid. Device=%1

指定的设备不正确。

请通过Cluster WebUI确认磁盘监视资源的设备名称。

Diskw

警告

191

Ignored disk full error.

无视磁盘已满的错误。

请确认设备的使用状况。

4.4.4. PID监视资源

模块类型

分类

返值

消息

描述

处理方法

pidw

错误

1

Process does not exist. (pid=%1)

未找到资源。

监视对象进程由于某种原因消失。请确认。

pidw

警告

100

Resource %1 was not found.

未找到资源。

请在Cluster WebUI上确认配置信息。

pidw

警告

100

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

4.4.5. 用户空间监视资源

模块类型

分类

返值

消息

描述

处理方法

userw

错误

1

Initialize error. (%1)

在进程的初始化时查出异常。

请确认softdog.o和/dev/watchdog是否存在。
请确认用户空间监视资源依存的驱动程序是否存在,或者是否安装了rpm。依存的驱动程序或rpm根据监视方法而不同。

4.4.6. 自定义监视资源

模块类型

分类

返值

消息

描述

处理方法

genw

错误

1

Initialize error. (status=%d)

初期化中查出异常。

可执行是内存不足或OS资源不足。请确认。

genw

错误

2

Termination code %d was returned.

返回预计之外的值。

请确认集群配置信息是否正确。

genw

错误

3

User was not superuser.

不是root用户。

请以root用户身份登录。

genw

错误

4

Getting of config was failed.

获取集群配置信息失败。

请确认是否存在集群配置信息。

genw

错误

5

Parameter was invalid.

参数不正确。

请确认集群配置信息是否正确。

genw

错误

6

Option was invalid.

参数不正确。

请确认集群配置信息是否正确。

genw

错误

7

Monitor Resource %s was not found.

没有找到资源。

请确认集群配置信息是否正确。

genw

错误

8

Create process failed.

进程生成失败。

可执行是内存不足或OS资源不足。请确认。

genw

错误

9

Process does not exist. (pid=%d)

进程不存在。

请确认是否存在进程。

genw

错误

10

Process aborted. (pid=%d)

进程不存在。

请确认是否存在进程。

genw

错误

11

Asynchronous process does not exist. (pid=%d)

进程不存在。

请确认是否存在进程。

genw

错误

12

Asynchronous process aborted. (pid=%d)

进程不存在。

请确认是否存在进程。

genw

错误

13

Monitor path was invalid.

路径不正确。

请确认集群配置信息是否正确。

genw

错误

其他

Internal error. (status=%d)

发生其他内部错误。

-

4.4.7. 多目标监视资源

模块类型

分类

返值

消息

描述

处理方法

Mtw

错误

1

Option was invalid.

参数不正确。

请确认集群配置信息是否正确。

Mtw

错误

2

User was not superuser.

不是root用户。

请以root用户身份登录。

Mtw

错误

3

Internal error. (status=%d)

发生其他内部错误。

-

4.4.8. JVM监视资源

模块类型

分类

返值

消息

描述

处理方法

Jraw

错误

11

An error was detected in accessing the monitor target.

无法连接监视对象Java VM。

请确认监视对象Java VM是否已启动。

Jraw

错误

12

JVM status changed to abnormal. cause = %1.

在Java VM的监视中查出异常。
%1:异常发生原因
GarbageCollection
JavaMemoryPool
Thread
WorkManagerQueue
WebOTXStall

请根据消息,确认在监视对象Java VM上操作的Java应用程序。

Jraw

警告

189

Internal error occurred.

发生内部错误。

请执行集群挂起和集群复原。

4.4.9. 系统监视资源

模块类型

分类

返值

消息

描述

处理方法

sraw

错误

11

Detected an error in monitoring system. resource

在系统资源的监视中查出异常。

资源出现某种异常。请确认。

4.4.10. 进程资源监视资源

模块类型

分类

返值

消息

描述

处理方法

psrw

错误

11

Detected an error in monitoring process resource

在进程资源的监视中查出异常。

资源出现某种异常。请确认。

4.4.12. 卷管理监视资源

模块类型

分类

返值

消息

描述

处理方法

volmgrw

错误

21

Command was failed. (cmd=%1, ret=%2)

%1命令失败。命令返回值为%2

命令失败。请确认卷管理器的运行情况。

volmgrw

错误

22

Internal error. (status=%1)

发生了其他内部错误。

-

volmgrw

错误

23

Internal error. (status=%1)

发生了其他内部错误。

-

volmgrw

警告

190

Option was invalid.

选项不正确。

请通过Cluster WebUI确认集群配置信息。

volmgrw

警告

191

%1 %2 is %3 !

卷管理器 (%1)的目标 (%2)的状态变为%3。

请确认卷管理器目标状态。

volmgrw

警告

其他

Internal error. (status=%1)

发生了其他内部错误。

-

4.4.13. 进程名监视资源

模块类型

分类

返回值

消息

描述

处理方法

psw

错误

11

Process[%1 (pid=%2)]
Down

查出了监视对象进程的消失。

请确认监视对象进程是否正常运行。

psw

错误

12

The number of processes is less than the specified minimum process count. %1/%2 (%3)

监视对象进程的启动进程数低于指定的下限值。

请确认监视对象进程是否正常运行。

psw

警告

100

Monitoring timeout

监视超时。

OS负载可执行很高。
请确认。

psw

警告

101

Internal error

发生了内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

psw

警告

190

Internal error

发生了内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

psw

警告

190

Initialize error

查出了初期化中发生的异常。

可执行是因为内存不足或OS资源不足。请进行确认。

4.4.14. 监视选项监视资源

监视选项监视资源使用共同的信息。模块类型根据每个监视选项监视资源而不同。

监视选项监视资源

模块类型

DB2监视资源

db2w

FTP监视资源

ftpw

HTTP监视资源

httpw

IMAP4监视资源

imap4w

MySQL监视资源

mysqlw

NFS监视资源

nfsw

ODBC监视资源

odbcw

Oracle监视资源

oraclew

POP3监视资源

pop3w

PostgreSQL监视资源

psqlw

Samba监视资源

sambaw

SMTP监视资源

smtpw

SQL Server监视资源

sqlserverw

Tuxedo监视资源

tuxw

WebLogic监视资源

wlsw

WebSphere监视资源

wasw

WebOTX监视资源

otxw

模块类型

分类

返值

消息

描述

处理方法

(别表)

错误

5

Failed to connect to %1 server. [ret=%2]

连接监视对象失败。
%1中加入应用程序。

请确认监视对象的状态。

(别表)

错误

7

Failed to execute SQL statement (%1). [ret=%2]

SQL文(%1)执行失败。
在[%1]中,加入模块类型。

请在Cluster WebUI上确认配置信息。

(别表)

错误

8

Failed to access with %1.

和监视对象的数据访问失败。
在[%1]中,加入监视对象。

请确认监视对象的状态。

(别表)

错误

9

Detected error in %1.

监视对象异常。
在[%1]中,加入监视对象。

请确认监视对象的状态。

(别表)

警告

104

Detected function exception. [%1, ret=%2]

查出异常。
%1中加入监视对象。
请在Cluster WebUI上确认配置信息。
可执行是OS处于高负荷状态。请确认。

(别表)

警告

106

Detected authority error.

用户验证失败。

请确认用户名,密码,访问权限。

(别表)

警告

111

Detected timeout error.

和监视对象通信超时。

可执行是OS处于高负荷状态。请确认。

(别表)

警告

112

Can not found install path. (install path=%1)

找不到安装路径。
%1:安装路径。

请确认安装路径所在的位置。

(别表)

警告

113

Can not found library. (libpath=%1, errno=%2)

不能从指定的位置加载库。
%1中含有库路径。

请确认库所在的位置。

(别表)

警告

171

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

%1的监视中检测到监视延迟。当前的超时值为%2(秒) x%3(每秒的tick count)。延迟检测时的实测值为%4(tick count),超出了延迟警告比率%5(%)。

请确认查出监视延迟的服务器负载情况并清除负载。
可执行查出监视超时时,需延长监视超时。

(别表)

信息

181

The collecting of detailed information triggered by monitor resource %1 error has been started (timeout=%2).

开始采集监视资源检测到$1监视异常时的详细信息。超时为%2秒。

-

(别表)

信息

182

The collection of detailed information triggered by monitor resource %1 error has been completed.

完成采集监视资源检测到%1监视异常时的详细信息。

-

(别表)

警告

183

The collection of detailed information triggered by monitor resource %1 error has been failed (%2).

监视资源检测到%1监视异常时的详细信息采集失败。(%2)

-

(别表)

警告

189

Internal error. (status=%1)

查出了内部错误。

-

(别表)

警告

190

Init error. [%1, ret=%2]

初始化中检查出异常。
%1中加入
license,library, XML,share memory,log其中一个。

可执行是OS处于高负荷状态。请确认。

(别表)

警告

190

Get config information error. [ret=%1]

获取设置信息失败。

请在Cluster WebUI上确认集群配置信息。

(别表)

警告

190

Invalid parameter.

Config文件/Policy文件的设置信息不正确。
命令的参数不正确。

请在Cluster WebUI上确认集群配置信息。

(别表)

警告

190

Init function error. [%1, ret=%2]

初始化中检查出函数异常。
%1:执行函数名称

可执行是OS处于高负荷状态。请确认。

(别表)

警告

190

User was not superuser.

用户没有Root权限。

可执行是执行用户没有root权限,或内存不足或OS的资源不足。请确认。

(别表)

警告

190

The license is not registered.

License未注册。

请确认注册了正确的license。

(别表)

警告

190

The registration license overlaps.

注册的License重复了。

请确认注册了正确的license。

(别表)

警告

190

The license is invalid.

License不正确。

请确认注册了正确的license。

(别表)

警告

190

The license of trial expired by %1.

试用版的License已过期。
在%1中,加入使用期限。

-

(别表)

警告

190

The license of trial effective from %1.

试用版的License还未到试用开始时间。
在%1中,加入使用期限。

-

(别表)

警告

190

Not supported algorithm(%1).

不支持的算法。
%1中包含算法。

-

4.5. JVM监视资源输出日志消息

以下消息为JVM监视资源独有的日志文件——JVM操作日志的消息列表。

4.5.1. JVM操作日志

消息

发生原因

处理方法

Failed to write the %1$s.stat.

JVM统计日志写入失败。
%1$s.stat:JVM统计日志文件名

请确认磁盘剩余空间是否足够。

%1$s: analyze finish[%4$s]. state = %2$s, cause = %3$s

(监视对象Java VM状态异常时)监视对象Java VM的资源使用量超过阈值。
%1$s:监视对象Java VM名称
%2$s:监视对象Java VM状态
(1=正常,0=异常)
%3$s:发生异常时的错误部分
%4$s:测量线程名

请修改在监视对象Java VM上运行的Java应用程序。

thread stopped by UncaughtException.

JVM监视资源的线程已停止。

请执行集群挂起/集群复原,重新启动JVM监视资源。

thread wait stopped by Exception.

JVM监视资源的线程已停止。

请执行集群挂起/集群复原,重新启动JVM监视资源。

%1$s: monitor thread can't connect to JVM.

无法连接监视对象Java VM。
%1$s:监视对象Java VM名称

请确认监视对象Java VM是否已启动。

%1$s: monitor thread can't get the JVM state.

无法从监视对象Java VM获取资源使用量。
%1$s:监视对象Java VM名称

请确认监视对象Java VM是否已启动。

%1$s: JVM state is changed [abnormal -> normal].

监视对象Java VM状态由异常变为正常。
%1$s:监视对象Java VM名称

-

%1$s: JVM state is changed [normal -> abnormal].

监视对象Java VM状态由正常变为异常。
%1$s:监视对象Java VM名称

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: Failed to connect to JVM.

无法连接监视对象Java VM。
%1$s:监视对象Java VM名称

请确认监视对象Java VM是否已启动。

Failed to write exit code.

JVM监视资源无法写入记录退出代码的文件。

请确认磁盘剩余空间是否足够。

Failed to be started JVM Monitor.

启动JVM监视资源失败。

请确认JVM操作日志,消除无法启动的原因后,执行集群挂起/集群复原,重新启动JVM监视资源。

JVM Monitor already started.

JVM监视资源已启动。

请执行集群挂起/集群复原,重新启动JVM监视资源。

%1$s: GARBAGE_COLLECTOR
_MXBEAN_DOMAIN_TYPE is invalid.
从监视对象Java VM获取GC信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: GarbageCollectorMXBean is invalid.

从监视对象Java VM获取GC信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Failed to measure the GC stat.

从监视对象Java VM获取GC信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: GC stat is invalid. last.getCount = %2$s, last.getTime = %3$s, now.getCount = %4$s, now.getTime = %5$s.

从监视对象Java VM获取GC发生次数,测量执行时间失败。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:上次测量时的GC总执行时间
%4$s:此次测量时的GC发生次数
%5$s:此次测量时的GC总执行时间

请确认监视对象Java VM的操作环境是否正确。

%1$s: GC average time is too long. av = %6$s, last.getCount = %2$s, last.getTime = %3$s, now.getCount = %4$s, now.getTime = %5$s.

监视对象Java VM中GC的平均执行时间超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:上次测量时的GC总执行时间
%4$s:此次测量时的GC发生次数
%5$s:此次测量时的GC总执行时间
%6$s:上次测量到此次测量之间,GC的平均执行时间

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: GC average time is too long compared with the last connection. av = %6$s, last.getCount = %2$s, last.getTime = %3$s, now.getCount = %4$s, now.getTime = %5$s.

重新连接监视对象Java VM后,监视对象Java VM中,GC的平均执行时间超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:上次测量时的GC总执行时间
%4$s:此次测量时的GC发生次数
%5$s:此次测量时的GC总执行时间
%6$s:上次测量到此次测量之间,GC的平均执行时间

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: GC count is too frequently. count = %4$s last.getCount = %2$s, now.getCount = %3$s.

监视对象Java VM中GC的发生次数超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:此次测量时的GC发生次数
%4$s:上次测量到此次测量之间的GC发生次数

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: GC count is too frequently compared with the last connection. count = %4$s last.getCount = %2$s, now.getCount = %3$s.

重新连接监视对象Java VM后,监视对象Java VM中,GC的发生次数超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:此次测量时的GC发生次数
%4$s:上次测量到此次测量之间的GC发生次数

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: RuntimeMXBean is invalid.

从监视对象Java VM获取信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Failed to measure the runtime stat.

从监视对象Java VM获取信息失败。
%1$s:监视对象Java VM名称
请确认监视对象Java VM的操作环境是否正确。
请确认监视对象Java VM中,处理负载是否过高。

%1$s: MEMORY_MXBEAN_NAME is invalid. %2$s, %3$s.

从监视对象Java VM获取内存信息失败。
%1$s:监视对象Java VM名称
%2$s:内存池的名称
%3$s:内存的名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: MemoryMXBean is invalid.

从监视对象Java VM获取内存信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Failed to measure the memory stat.

从监视对象Java VM获取内存信息失败。
%1$s:监视对象Java VM名称
请确认监视对象Java VM的操作环境是否正确。
请确认监视对象Java VM中,处理负载是否过高。

%1$s: MemoryPool name is undefined. memory_name = %2$s.

无法从监视对象Java VM获取内存信息。
%1$s:监视对象Java VM名称
%2$s:测量对象的Java内存池名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: MemoryPool capacity is too little. memory_name = %2$s, used = %3$s, max = %4$s, ratio = %5$s%.

监视对象Java VM的Java内存池剩余空间小于阈值。
%1$s:监视对象Java VM名称
%2$s:测量对象的Java内存池名称
%3$s:Java内存池的使用量
%4$s:Java内存池的最大使用量
%5$s:Java内存池的利用率

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: THREAD_MXBEAN_NAME is invalid.

从监视对象Java VM获取线程信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: ThreadMXBean is invalid.

从监视对象Java VM获取线程信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Failed to measure the thread stat.

从监视对象Java VM获取线程信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Detect Deadlock. threads = %2$s.

监视对象Java VM的线程发生死锁。
%1$s:监视对象Java VM名称
%2$s:死锁的线程ID

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: Thread count is too much(%2$s).

监视对象Java VM中启动的线程数超过阈值。
%1$s:监视对象Java VM名称
%2$s:测量时的线程启动数

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: ThreadInfo is null.Thread count = %2$s.

从监视对象Java VM获取线程信息失败。
%1$s:监视对象Java VM名称
%2$s:测量时的线程启动数

请确认监视对象Java VM的版本的操作环境是否正确。

%1$s: Failed to disconnect.

切断监视对象Java VM失败。
%1$s:监视对象Java VM名称

-

%1$s: Failed to connect to WebLogicServer.

连接监视对象WebLogic Server失败。
%1$s:监视对象Java VM名称

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Failed to connect to Sun JVM.

连接监视对象Java VM,WebOTX失败。
%1$s:监视对象Java VM名称

请修改在监视对象Java VM,WebOTX上运行的Java应用程序。

Failed to open the %1$s.

输出JVM统计日志失败。
%1$s:HA/JVMSaverJVM 统计日志文件名称

请确认磁盘剩余空间是否足够,是否超出能打开文件的上限数。

%1$s: Can't find monitor file.

无法监视。
%1$s:监视对象Java VM名称

-

%1$s: Can't find monitor file, monitor stopped[thread:%2$s].

停止监视。
%1$s:监视对象Java VM名称
%2$s:测量线程的类型

-

%1$s: Failed to create monitor status file.

创建内部文件失败。
%1$s:监视对象Java VM名称

请确认是否超出磁盘剩余空间或卷的最大文件数。

%1$s: Failed to delete monitor status file.

删除内部文件失败。
%1$s:监视对象Java VM名称

请确认硬盘是否有问题。

%1$s: com.bea:Type=ServerRuntime is invalid.

从监视对象Java VM获取信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: WorkManagerRuntimeMBean or ThreadPoolRuntimeMBean is invalid.

从监视对象WebLogic Server获取信息失败。
%1$s:监视对象Java VM名称

请确认监视对象WebLogic Server的操作环境是否正确。

%1$s: Failed to measure the WorkManager or ThreadPool stat.

从监视对象WebLogic Server获取信息失败。
%1$s:监视对象Java VM名称

请确认监视对象WebLogic Server的操作环境是否正确。

%1$s: ThreadPool stat is invalid. last.pending = %2$s, now.pending = %3$s.

测量监视对象WebLogic Server线程池的待机请求数失败。
%1$s:监视对象Java VM名称
%2$s:上次测量时的待机请求数
%3$s:此次测量时的待机请求数

请确认监视对象WebLogic Server版本的操作环境是否正确。

%1$s: WorkManager stat is invalid. last.pending = %2$s, now.pending = %3$s.

测量监视对象WebLogic Server运行管理的待机请求数失败。

%1$s:监视对象Java VM名称
%2$s:上次测量时的待机请求数
%3$s:此次测量时的待机请求数

请确认监视对象WebLogic Server版本的操作环境是否正确。

%1$s: PendingRequest count is too much. count = %2$s.

监视对象WebLogic Server线程池的待机请求数超过阈值。
%1$s:监视对象Java VM名称
%2$s:此次测量时的待机请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest increment is too much. increment = %4$s%%, last.pending = %2$s, now.pending = %3$s.

监视对象WebLogic Server线程池的待机请求数增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的待机请求数
%3$s:此次测量时的待机请求数
%4$s:上次测量到此次测量之间,待机请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest increment is too much compared with the last connection. increment = %4$s, last.pending = %2$s, now.pending = %3$s.

与监视对象WebLogic Server重新连接后,监视对象WebLogic Server线程池的待机请求数增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的待机请求数
%3$s:此次测量时的待机请求数
%4$s:上次测量到此次测量之间,待机请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Throughput count is too much. count = %2$s.

监视对象WebLogic Server线程池在单位时间内执行的请求数超过阈值。
%1$s:监视对象Java VM名称
%2$s:此次测量时在单位时间内执行的请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Throughput increment is too much. increment = %4$s, last.throughput = %2$s, now.throughput = %3$s.

监视对象WebLogic Server线程池在单位时间内执行的请求数增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时在单位时间内执行的请求数
%3$s:此次测量时在单位时间内执行的请求数
%4$s:上次测量到此次测量之间,单位时间内执行请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Throughput increment is too much compared with the last connection. increment = %4$s, last.throughput = %2$s, now.throughput = %3$s.

与监视对象WebLogic Server重新连接后,监视对象WebLogic Server线程池在单位时间内执行请求数的增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时在单位时间内执行的请求数
%3$s:此次测量时在单位时间内执行的请求数
%4$s:上次测量到此次测量之间,单位时间内执行请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest count is too much. appName = %2$s, name = %3$s, count = %4$s.

监视对象WebLogic Server运行管理的待机请求数超过阈值。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名
%4$s:待机请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest increment is too much. appName = %2$s, name = %3$s, increment = %6$s%%, last.pending = %4$s, now.pending = %5$s.

监视对象WebLogic Server运行管理的待机请求增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名
%4$s:上次测量时的待机请求数
%5$s:此次测量时的待机请求数
%6$s:上次测量到此次测量之间,待机请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest increment is too much compared with the last connection. AppName = %2$s, Name = %3$s, increment = %6$s, last.pending = %4$s, now.pending = %5$s.

与监视对象WebLogic Server重新连接后,监视对象WebLogic Server运行管理的待机请求增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名
%4$s:上次测量时的待机请求数
%5$s:此次测量时的待机请求数
%6$s:上次测量到此次测量之间,待机请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Can't find WorkManager. appName = %2$s, name = %3$s.

无法从WebLogic Server获取已设置的运行管理。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名

请修改[监视对象WebLogic的运行管理]的设置。

%1$s: analyze of average start[%2$s].

平均值分析已开始。
%1$s:监视对象Java VM名称
%2$s:线程名

-

%1$s: analyze of average finish[%2$s].state = %3$s.

平均值分析已结束。
%1$s:监视对象Java VM名称
%2$s:线程名
%3$s:监视对象的状态

-

%1$s: Average of PendingRequest count is too much. count = %2$s.

监视对象WebLogic Server线程池的待机请求数的平均值超过阈值。
%1$s:监视对象Java VM名称
%2$s:此次测量时的待机请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Average of Throughput count is too much. count = %2$s.

监视对象WebLogic Server线程池在单位时间内执行的请求数平均值超过阈值。
%1$s:监视对象Java VM名称
%2$s:此次测量时在单位时间内执行的请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Average of PendingRequest count is too much. AppName = %2$s, Name = %3$s, count = %4$s.

监视对象WebLogic Server运行管理的待机请求数平均值超过阈值。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名
%4$s:此次测量时的待机请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

Error: Failed to operate clpjra_bigip.[%1$s]

%1$s:error code

请重新设定内容。

action thread execution did not finish. action is alive = %1$s.

[命令]超时。
%1$s:[命令]设定的执行文件名
请强制结束[命令]。
请修改[命令超时]。
请排除高负荷等超时原因。

%1$s: Failed to connect to Local JVM. cause = %2$s.

与Jboss的连接失败。
%1$s:监视对象名
%2$s:失败的详细原因

详细原因为以下的某个。
・Failed to find tools.jar, please set JDK's path for the Java installation path.
・Load tools.jar exception
・Get Local JVM url path exception
・Failed to get process name
・Failed to connect to JBoss JVM.
・Failed to find management-agent.jar, please set JDK's path for the Java installation path
请修正[Java安装路径],[进程名]。
[Java安装路径]中请设定JDK,而不是JRE。
请确认JBoss是否启动。

4.6. 集群配置信息检查的详细信息

4.6.1. 集群属性

检查内容

ID

消息

处理方法

端口号标签页的端口号检查

1011

检查处理失败。

请确认sysctl命令是否可用。

1012

端口号 %1 包含在自动分配的端口中。

请设置自动分配端口范围以外的端口号。

端口号(日志)标签页的端口号检查

1031

检查处理失败。

请确认sysctl命令是否可用。

1032

端口号 %1 包含在自动分配的端口中。

请设置自动分配端口范围以外的端口号。

4.6.2. 心跳资源

检查内容

ID

消息

处理方法

hb 的ping检查

4011

检查处理失败。

请确认ping(ping6)命令是否可用。

4012

Ping %1 通信失败。

请确认是否设置了可以通过ping访问的IP地址。

4.6.3. 其他

检查内容

ID

消息

处理方法

SELinux禁用检查

5021

检查处理失败。

请确认getenforce命令是否可用。

5022

SELinux未禁用。

请参考《安装指南』 - "进行SELinux相关的设置(必须)",禁用SELinux。
如果在启用 SELinux 时执行了参考中描述的设置步骤,请忽略此检查的错误。

内核检查

5031

它是不受支持的内核。
请确认支持的内核。

请确认支持的内核。

zip命令的存在检查

5051

检查处理失败。

请确认which命令是否可用。

5052

未找到zip。

请安装zip命令。

4.6.4. 不推荐设置确认

检查内容

ID

消息

处理方法

停止异常时的复归动作检查(%1)

6001

检测出停止异常时的复归动作设置为"不进行任何操作"。
推荐设置为"不进行任何操作"以外的选项。

推荐检测出停止异常时的最终动作设置为"不进行任何操作"以外的选项。