10. 错误消息一览表

本章介绍EXPRESSCLUSTER运行中显示的错误消息一览。

本章包含以下内容。

10.1. 消息列表

EXPRESSCLUSTER X 4.3 不支持ESMPRO/ServerAgent的事件(syslog)日志监视。

EXPRESSCLUSTER X 4.3 不能将EXPRESSCLUSTER上发生的事件通告给快速通告服务。

10.2. syslog,警告,邮件通告消息,SNMP Trap消息,Message Topic

在alert列中标有●标记的消息会被输出到Cluster WebUI的警报日志中,在syslog列中标有●标记的消息会被输出到OS的syslog中。

在Mail Report列中标有●标记的消息在设置了alert服务的 邮件通报时会被通报。

在SNMP Trap列中标有●标记的消息在设置了alert服务的SNMP Trap发送时会被通报。关于邮件通报,SNMP Trap发送请参考"2. 参数的详细信息"的"Alert服务标签页", "其他设置信息"的"警报服务"。

关于Message Topic 列中标有●标记的消息在设置了Amazon SNS联动功能时会被通报。

关于Amazon SNS联动功能,请参考"2. 参数的详细信息"的"2.2. 集群属性"的"2.2.20. 云标签页"。

注解

syslog中显示 facility = daemon(0x00000018), identity = "EXPRESSCLUSTER" 。下表的"事件分类"相当于syslog的日志级别。

下表中使用的记号如下所示。

[1]alert, [2]syslog, [3]Mail Report, [4]SNMP Trap, [5]Message Topic

模块类型

事件分类

事件ID

消息

描述

处理方法

1

2

3

4

5

pm

信息

1

Starting the cluster daemon...

EXPRESSCLUSTER Daemon已正常启动。

-

pm

信息

2

Shutting down the cluster daemon...

正在停止EXPRESSCLUSTER Daemon。

-

pm

信息

3

Shutdown monitoring is started...

关闭监视已经启动。

-

pm

错误

10

The cluster daemon has already started.

EXPRESSCLUSTER Daemon已经启动。

请确认EXPRESSCLUSTER Daemon的状态。

pm

错误

11

A critical error occurred in the cluster daemon.

EXPRESSCLUSTER Daemon上发生了重大错误。

执行用户没有root权限,或内存不足或OS的资源不足。请确认。

pm

错误

12

A problem was detected in XML library.

查出XML库的问题。

可执行是内存不足或OS资源不足。请确认。

pm

错误

13

A problem was detected in cluster configuration data.

查出集群配置信息中的问题。

请使用Cluster WebUI确认集群配置信息。

pm

错误

14

No cluster configuration data is found.

集群配置信息不存在。

请使用Cluster WebUI创建集群配置,并将其上传到集群内所有服务器上。

pm

错误

15

No information about this server is found in the cluster configuration data.

自身服务器上不存在集群配置信息。

请使用Cluster WebUI确认集群配置信息。

pm

错误

20

Process %1 was terminated abnormally.

%1进程异常结束。

可执行是内存不足或OS资源不足。请确认。

pm

错误

21

The system will be stopped because the cluster daemon process terminated abnormally.

EXPRESSCLUSTER Daemon的进程异常结束,因此将停止系统。

可执行是组资源的停止失败。请按照组资源的消息提示处理。

pm

错误

22

An error occurred when initializing process %1.(return code:%2)

%1进程的初始化错误。

可执行是事件进程尚未启动。请参考"发生故障时的步骤"。

pm

信息

23

The system will be stopped.

将停止系统。

-

pm

信息

24

The cluster daemon will be stopped.

将停止EXPRESSCLUSTER Daemon。

-

pm

信息

25

The system will be rebooted.

将重启系统。

-

pm

信息

26

Process %1 will be restarted.

将重启%1进程。

-

pm

信息

30

Received a request to stop the system from %1.

从%1收到了停止系统的请求。

-

pm

信息

31

Received a request to stop the cluster daemon from %1.

从%1收到了停止EXPRESSCLUSTER Daemon的请求。

-

pm

信息

32

Received a request to reboot the system from %1.

从%1收到了重启系统的请求。

-

pm

信息

33

Received a request to restart the cluster daemon from %1.

从%1收到了重启EXPRESSCLUSTER Daemon重启的请求。

-

pm

信息

34

Received a request to resume the cluster daemon from %1.

从%1收到了复原集群的请求。

-

pm

信息

35

Received a request to suspend the cluster daemon from %1.

从%1收到了挂起集群的请求。

-

pm

信息

36

Received a request to panic by sysrq from %1.

从%1收到了由sysrq引发的panic请求。

-

pm

信息

37

Received a request to reset by keepalive driver from %1.

从%1收到了由keepalive驱动引发的reset请求。

-

pm

信息

38

Received a request to panic by keepalive driver from %1.

从%1收到了由keepalive驱动引发的panic请求。

-

pm

信息

39

Received a request to reset by BMC from %1.

从%1收到了由BMC引发的reset请求。

-

pm

信息

40

Received a request to power down by BMC from %1.

从%1收到了由BMC引发的power down请求。

-

pm

信息

41

Received a request to power cycle by BMC from %1.

从%1收到了由BMC引发的power cycle请求。

-

pm

信息

42

Received a request to send NMI by BMC from %1.

从%1收到了由BMC引发的发送NMI请求。

-

pm

信息

43

Received a request to send IO Fencing by ACPI driver from %1.

从%1收到由ACPI驱动程序引发的IO Fencing请求。

-

pm

信息

44

Received a request to emergently stop the system from %1.

从%1 收到系统中断紧急请求。

-

pm

信息

45

Received a request to emergently reboot the system from %1.

从%1收到系统重新启动紧急请求。

-

pm

错误

66

An attempt to panic by sysrq from %1 failed.

尝试从%1由sysrq引发panic,但失败了。

请确认系统能否使用sysrq。

pm

错误

67

An attempt to reset by keepalive driver from %1 failed.

尝试从%1由keepalive驱动引发reset,但失败了。

请确认环境能否使用keepalive驱动。

pm

错误

68

An attempt to panic by keepalive driver from %1 failed.

尝试从%1由keepalive驱动引发panic,但失败了。

请确认环境能否使用keepalive驱动。

pm

错误

69

An attempt to reset by BMC from %1 failed.

尝试从%1由BMC引发reset,但失败了。

请确认能否使用ipmitool命令。

pm

错误

70

An attempt to power down by BMC from %1 failed.

尝试从%1由BMC引发power down,但失败了。

请确认能否使用ipmitool命令。

pm

错误

71

An attempt to power cycle by BMC from %1 failed.

尝试从%1由BMC引发power cycle,但失败了。

请确认能否使用ipmitool命令。

pm

错误

72

An attempt to send NMI by BMC from %1 failed.

尝试从%1由BMC引发发送NMI,但失败了。

请确认能否使用ipmitool命令。

pm

错误

73

An attempt to send IO Fencing by ACPI driver from %1 failed.

尝试从%1收到由ACPI驱动程序引发的IO Fencing请求,但失败了。

请确认能否使用EXPRESSCLUSTER联动用ACPI驱动程序。

pm

信息

100

The system will be panic by sysrq.

通过sysrq,对系统进行panic处理。

-

pm

信息

101

The system will be reset by ka.

通过keep alive驱动程序,进行系统复位。

-

pm

信息

102

The system will be panic by ka.

通过keep alive驱动程序,对系统进行panic处理。

-

pm

信息

103

The system will be reset by bmc.

通过BMC,进行系统复位。

-

pm

信息

104

The system will be off by bmc.

通过BMC,关闭系统电源。

-

pm

信息

105

The system will be cycle by bmc.

通过BMC,关闭系统电源后接通电源。

-

pm

信息

106

The system will be nmi by bmc.

通过BMC,向系统发送NMI。

-

pm

信息

107

The system will be iofencing.

对系统执行I/O Fencing。

-

nm

信息

1

Server %1 has started.

服务器%1已经启动。

-

nm

信息

2

Server %1 has been stopped.

服务器%1已经停止。

-

nm

信息

3

Resource %1 of server %2 has started.

服务器%2的%1资源已经启动。

-

nm

信息

4

Resource %1 of server %2 has stopped.

服务器%2的%1资源已经停止。

-

nm

信息

5

Waiting for all servers to start.

等待所有服务器启动。

-

nm

信息

6

All servers have started.

所有服务器已启动。

-

nm

信息

7

Timeout occurred during the wait for startup of all servers.

等待所有服务器启动超时。

-

nm

错误

8

Timeout occurred during the wait for startup of all servers. (Cannot communicate with some servers.)

等待所有服务器启动超时。(与某些服务器不能进行内部通信。)

请确认网络适配器中是否有错误,网络连接是否正确。

nm

信息

9

Waiting for startup of all servers has been canceled.

取消了服务器启动等待。

-

nm

错误

10

Status of resource %1 of server %2 is unknown.

服务器%2的%1 资源的状态不明。

请确认%1资源相关的线缆或网络设置是否正确。

nm

警告

11

NP resolution process at the cluster startup is disabled.

禁用集群启动时的网络分区解决处理。

禁用集群启动时的网络分区解决处理。

nm

错误

20

Process %1 was terminated abnormally.

%1进程异常结束。

可执行是内存不足或OS资源不足。请确认。

nm

信息

21

The system will be stopped.

系统将停止。

-

nm

信息

22

The cluster daemon will be stopped.

EXPRESSCLUSTER Daemon将停止。

-

nm

信息

23

The system will be rebooted.

系统将重启。

-

nm

信息

24

Process %1 will be restarted.

%1进程将重启。

-

nm

错误

30

Network partition was detected. Shut down the server %1 to protect data.

查出网络分区。为了保护数据关闭了服务器%1。

所有心跳资源将无法使用。请确认网络适配器中是否有错误,网络连接是否正确。使用DISKHB时,请确认共享磁盘的状态。

使用COMHB时,请确认COM线缆连接是否正确。

nm

错误

31

An error occurred while confirming the network partition. Shut down the server %1.

在确认网络分区时发生错误。为了保护数据关闭了服务器%1。

请确认在网络分区解决资源中是否发生了错误。

nm

错误

32

Shut down the server %1. (reason:%2)

关闭了服务器%1。(原因:%2)

所有心跳资源将无法使用。请确认网络适配器中是否有错误,网络连接是否正确。

使用DISKHB时,请确认共享磁盘的状态。

使用COMHB时,请确认COM线缆连接是否正确。

nm

错误

33

Cluster service will be stopped. (reason:%1)

停止了集群服务。(原因:%1)

请排除原因所示的故障。

nm

错误

34

The combination of the network partition resources is invalid. (server name:%1)

网络分区解决资源的组合不正确(服务器名:%1)

请确认集群配置信息。

nm

错误

35

Failed to start the resource %1. Server name:%2

资源%1启动失败。(服务器名:%2)

请确认在网络分区解决资源中是否发生了错误。

nm

信息

36

The network partition %1 of the server %2 has been recovered to the normal status.

服务器%2的网络分区%1复原正常。

-

nm

错误

37

The network partition %1 of the server %2 has an error.

服务器%2的网络分区%1异常。

请确认在网络分区解决资源中是否发生了错误。

nm

错误

38

The resource %1 of the server %2 is unknown.

服务器%2的资源%1不明。

请确认集群配置信息。

nm

信息

39

The server %1 canceled the pending failover.

服务器%1取消了失效切换。

-

nm

错误

40

Network partition was detected. Stop the cluster service on the server %1 to protect data.

查出网络分区。为了保护数据,停止服务器%1的集群服务。

所有心跳资源将无法使用。请确认网络适配器中是否有错误,网络连接是否正确。

使用DISKHB时,请确认共享磁盘的状态。 使用COMHB时,请确认COM线缆连接是否正确。

nm

错误

41

An error occurred while confirming the network partition. Stop the cluster service on the server %1.

在确认网络分区时发生错误。为了保护数据,停止服务器%1的集群服务。

请确认在网络分区解决资源中是否发生了错误。

nm

错误

42

Network partition was detected. Reboot the cluster service on the server %1 to protect data.

检测出NP解决。为了保护数据,重新启动了%1服务器。

所有的心跳都不能使用。请确认网络适配器或者网络是否发生错误。 如果使用了COMHB,请确认COM电缆是否正确接线。

nm

错误

43

Network partition was detected. Execute action(%1) on the server %2 to protect data.

检测出NP解决。为了保护数据,执行了%1服务器上的%2。

所有的心跳都不能使用。请确认网络适配器或者网络是否发生错误。

如果使用了DISKHB,请确认共享磁盘的状态。 如果使用了COMHB,请确认COM电缆是否正确接线。

nm

错误

44

An error occurred while confirming the network partition. Reboot the server %1.

NP确认时发生问题。为了保护数据,重新启动了%1服务器。

请确认NP解决资源是否出错。

nm

错误

45

An error occurred while confirming the network partition. Execute action(%1) on the server %2.

NP确认时发生问题。为了保护数据,执行了%1服务器上的%2。

请确认NP解决资源是否出错。

nm

错误

46

Reboot the server %1. (reason:%2)

重启了%1服务器。(原因:%2)

所有的心跳都不能使用。请确认网络适配器或者网络是否发生错误。

如果使用了DISKHB,请确认共享磁盘的状态。

如果使用了COMHB,请确认COM电缆是否正确接线。

nm

错误

47

Execute action(%1) on the server %2. (reason:%3)

执行了%1服务器上的%2。(原因:%3)

所有的心跳都不能使用。请确认网络适配器或者网络是否发生错误。

如果使用了DISKHB,请确认共享磁盘的状态。

如果使用了COMHB,请确认COM电缆是否正确接线。

nm

错误

80

Cannot communicate with server %1.

与服务器%1不能进行内部通信。

请确认网络适配器中是否有错误,网络连接是否正确。

nm

信息

81

Recovered from internal communication error with server %1.

与服务器%1的内部通信从异常状态复原。

-

rc

信息

10

Activating group %1 has started.

开始了%1组的启动处理。

-

rc

信息

11

Activating group %1 has completed.

%1组的启动处理已结束。

-

rc

错误

12

Activating group %1 has failed.

%1组的启动处理失败。

请按照组资源的消息提示处理。

rc

信息

15

Waiting for group %1 to start has started.

已开始组的启动等待处理。

-

rc

信息

16

Waiting for group %1 to start has been completed.

组的启动等待处理正常完成。

-

rc

错误

17

Group start has been canceled because waiting for group %1 to start has timed out.

在组的启动等待处理中发生了超时。

请确认启动等待目标组的状态。

组未启动时,请在启动组后再次执行组操作。

rc

警告

18

Waiting for group %1 to start has timed out. However, group start continues.

在组的启动等待处理中,虽发生了超时,但仍继续启动组。

-

rc

信息

20

Stopping group %1 has started.

开始了%1组的停止处理。

-

rc

信息

21

Stopping group %1 has completed.

%1组的停止处理已结束。

-

rc

错误

22

Stopping group %1 has failed.

%1组的停止处理失败。

请按照组资源的消息提示处理。

rc

警告

23

Server %1 is not in a condition to start group %2.

服务器%1未处于能启动组%2的状态。

已启动完全互斥组的服务器不能再启动完全互斥组。请停止完全互斥组之后再执行。

rc

信息

25

Waiting for group %1 to stop has started.

开始了组的停止等待处理。

-

rc

信息

26

Waiting for group %1 to stop has been completed.

所依存组的停止等待处理正常完成。

-

rc

错误

27

Group stop has been canceled because waiting for group %1 to stop has timed out.

在组的停止等待处理中发生了超时。

请确认停止等待目标组的状态。

组未停止时,请在停止组后再次执行组操作。

rc

警告

28

Waiting for group %1 to stop has timed out. However, group stop continues.

在停止等待处理中,虽发生了超时,但仍继续停止组。

-

rc

信息

30

Activating %1 resource has started.

开始了%1资源的启动处理。

-

rc

信息

31

Activating %1 resource has completed.

%1资源的启动处理已结束。

-

rc

错误

32

Activating %1 resource has failed.(%2 : %3)

%1资源的启动处理失败。

请参考"组资源启动/停止时的详细信息"。

若启动处理中发生失速,则输出Activating %1 resource has failed.(99 : command is timeout)。

rc

信息

33

A request to activate %1 resource on server %2 has been started.

服务器 %2 中启动资源 %1的请求已开始。

-

rc

信息

34

A request to activate %1 resource on server %2 has been completed.

服务器 %2中启动资源 %1 的请求已结束。

-

rc

错误

35

A request to activate %1 resource on server %2 has been failed.

服务器 %2中启动资源 %1 的请求失败。

请确认网络是否发生异常,或者对方服务器是否发生异常。

rc

信息

36

Since the startup attribute is set to manual, the activation of resource %1 was suppressed.

由于启动属性设置为手动启动,因此资源%1的启动处理已被抑制。

-

rc

信息

40

Stopping %1 resource has started.

开始了%1资源的停止处理。

-

rc

信息

41

Stopping %1 resource has completed.

%1资源的停止处理已结束。

-

rc

错误

42

Stopping %1 resource has failed.(%2 : %3)

%1资源的停止处理失败。

请参考"组资源启动/停止时的详细信息"。

若启动处理中发生失速,则输出Stopping %1 resource has failed.(99 : command is timeout)。

rc

信息

44

A request to stop %1 resource on server %2 has been started.

服务器 %2中停止资源 %1的请求已开始。

-

rc

信息

45

A request to stop %1 resource on server %2 has been completed.

服务器 %2中停止资源 %1的请求已结束。

-

rc

错误

46

A request to stop %1 resource on server %2 has been failed.

服务器 %2中停止资源 %1 的请求失败。

请确认网络是否发生异常,或者对方服务器是否发生异常。

rc

信息

50

Moving group %1 has started.

开始了%1组的移动处理。

-

rc

信息

51

Moving group %1 has completed.

%1组的移动处理已结束。

-

rc

错误

52

Moving group %1 has failed.

%1组的移动处理失败。

请按照组资源的消息提示处理。

rc

信息

55

Migrating group %1 has started.

开始了%1 组的移动处理。

-

rc

信息

56

Migrating group %1 has completed.

结束了%1 组的移动处理。

-

rc

错误

57

Migrating group %1 has failed.

%1 组的移动处理失败。

请按组资源的消息进行处理。

rc

警告

58

Server %1 is not in a condition to migrate group %2.

服务器%1处于不能迁移组%2的状态。

如果不存在迁移目标服务器,%中不能输入服务器名。

请确认迁移目标服务器的状态。

rc

信息

60

Failover group %1 has started.

开始了%1组的失效切换处理。

-

rc

信息

61

Failover group %1 has completed.

%1组的失效切换处理已结束。

-

rc

错误

62

Failover group %1 has failed.

%1组的失效切换处理失败。

请按照组资源的消息提示处理。

rc

警告

63

Server %1 is not in a condition to move group %2.

服务器%1未处于能移动组%2的状态。

请确认目标移动服务器的状态。

移动目标服务器不存在时%1服务器名不能被输出。

rc

信息

64

Server %1 has been set as the destination for the group %2 (reason: %3).

服务器%1被设置为组%2的失效切换目标。(理由: %3)

-

rc

错误

65

There is no appropriate destination for the group %1 (reason: %2).

组%1没有恰当的失效切换目标(理由: %2)

没有可失效切换的服务器。

服务器可执行已经停止,或发生了无法执行失效切换的监视资源异常。

请启动服务器,或排除监视资源异常的原因,也可以停止查出异常的监视资源。

rc

警告

66

Server %1 is not in a condition to start group %2 (reason: %3).

服务器%1处于不能启动组%2的状态(理由: %2)

发生监视资源异常导致组无法启动。

请排除监视资源异常的原因,也可以停止查出异常的监视资源。

rc

信息

67

Server %1 in the same server group (%2) has been set as the destination for the group %3.

相同服务器组%2内的服务器%1被设置为组%3的失效切换目标。

-

rc

信息

68

Server %1 not in the same server group (%2) has been set as the destination for the group %3.

非服务器组%2中的服务器%1被设置为组%3的失效切换目标。

-

rc

警告

69

Can not failover the group %1 because there is no appropriate destination in the same server group %2.

服务器组%2中不存在可对组%1进行失效切换的服务器。

请启动服务器组内的服务器,然后在其他服务器组内的服务器中启动组。

rc

信息

70

Restarting group %1 has started.

开始了%1组的重启处理。

-

rc

信息

71

Restarting group %1 has completed.

%1组的重启处理已结束。

-

rc

错误

72

Restarting group %1 has failed.

%1组的重启处理失败。

请按照组资源的消息提示处理。

rc

信息

74

Failback group %s has started.

开始了%1组的失效切换处理。

-

rc

信息

75

Failback group %s has completed.

%1组的失效切换处理已结束。

-

rc

信息

76

Failback group %s has failed.

%1组的失效切换处理失败。

请按照组资源的消息提示处理。

rc

错误

77

Failover some groups have failed since the server cannot communicate with some servers.

由于存在无法进行内部通信的服务器,组的失效切换失败。

请确认LAN心跳和内核模式LAN心跳的状态。

内部通信恢复后请启动组。

rc

信息

80

Restarting resource %1 has started.

开始了%1资源的重启处理。

-

rc

信息

81

Restarting resource %1 has completed.

%1资源的重启处理已结束。

-

rc

错误

82

Restarting resource %1 has failed.

%1资源的重启处理失败。

请按照组资源的消息提示处理。

rc

信息

83

Starting a single resource %1.

启动单个资源%1。

-

rc

信息

84

A single resource %1 has been started.

启动单个资源%1结束。

-

rc

错误

85

Failed to start a single resource %1.

启动单个资源%1失败。

请按照组资源的消息提示处理。

rc

警告

86

Server %1 is not in a condition to start a single resource %2.

服务器%1未处于能启动单个资源%2的状态。

请确认服务器及组的状态。

rc

信息

87

Stopping a single resource %1.

停止单个资源%1。

-

rc

信息

88

A single resource %1 has been stopped.

停止单个资源%1结束。

-

rc

错误

89

Failed to stop a single resource %1.

停止单个资源%1失败。

请按照组资源的消息提示处理。

rc

信息

90

All the servers in the cluster were shut down.

集群已停止。

-

rc

信息

91

The server was shut down.

服务器已停止。

-

rc

错误

92

Group %1 has started on more than one server.

%1组已在多个的服务器上启动。

将自动关闭服务器。请参考《维护指南》的"维护信息" - "服务器宕机的发生条件" - "从网络分区复原"。

rc

警告

100

Restart count exceeded the maximum value %1. Final action of resource %2 will not be executed.

重启次数超过了最大值%1。资源%2 的最终动作无法执行。

请按照组资源的消息提示处理。

rc

信息

121

The CPU frequency has been set to high.

设置CPU频率级别为最高。

-

rc

信息

122

The CPU frequency has been set to low.

设置CPU频率级别为最低。

-

rc

信息

124

CPU frequency setting has been switched to automatic control by cluster.

通过集群切换CPU频率设置为自动控制。

-

rc

错误

140

CPU frequency control cannot be used.

CPU频率控制功能不能使用。

请确认BIOS的设置和kernel的设置。

rc

错误

141

Failed to set the CPU frequency to high.

不能设置CPU频率级别为最高。

请确认BIOS的设置和kernel的设置。

请确认EXPRESSCLUSTER是否启动。

请确认是否设置为使用CPU频率控制功能。

rc

错误

142

Failed to set the CPU frequency to low.

不能设置CPU频率级别为最低。

同上

rc

错误

144

Failed to switch the CPU frequency setting to automatic control by cluster.

不能通过集群切换CPU频率设置为自动控制。

请确认EXPRESSCLUSTER是否启动。

请确认是否设置为使用CPU频率控制功能。

rc

信息

160

Script before final action upon %1 failure in resource %2 started.

开始资源(%2)的异常时最终动作前脚本(%1)。

-

rc

信息

161

Script before final action upon %1 failure in resource %2 completed.

结束资源(%2)的异常时最终动作前脚本(%1)。

-

rc

信息

162

Script %1 in resource %2 started

开始资源(%2)的脚本(%1)。

-

rc

信息

163

Script %1 in resource %2 completed

结束资源(%2)的脚本(%1)。

-

rc

错误

180

Script before final action upon %1 failure in resource %2 failed.

资源(%2)的异常时最终动作前脚本(%1)失败。

请确认脚本失败原因,进行对应处理。

rc

错误

181

Failed to execute script %1 in resource %2.(%3)

资源(%2)的脚本(%1)失败。

同上

rc

信息

200

Resource(%1) will be reactivated since starting resource(%2) failed.

由于资源%1的启动处理失败造成将重新启动资源%2。

请按照组资源的消息提示处理。

rc

信息

201

Group(%1) will be moved to server(%2) since activating resource(%3) failed.

由于资源%3的启动处理失败,组 %1将移动到服务器%2。

请按照组资源的消息提示处理。

rc

信息

202

Group(%1) will be stopped since activating resource(%2) failed.

由于资源%2的启动处理失败造成组%1将停止。

请按照组资源的消息提示处理。

rc

信息

203

Cluster daemon will be stopped since activating resource(%1) failed.

由于资源%1的启动处理失败造成集群Daemon将停止。

请按照组资源的消息提示处理。

rc

信息

204

System will be halted since activating resource(%1) failed.

由于资源%1的启动处理失败造成OS将关闭。

请按照组资源的消息提示处理。

rc

信息

205

System will be rebooted since activating resource(%1) failed.

由于资源%1的启动处理失败造成OS将重启。

请按照组资源的消息提示处理。

rc

信息

206

Activating group(%1) will be continued since failover process failed.

由于失效切换失败,将继续进行组 %1的启动处理。

请按照组资源的消息提示处理。

rc

信息

220

Resource(%1) will be stopping again since stopping resource(%2) failed.

由于资源%2的停止处理失败造成将重试资源%1的停止。

请按照组资源的消息提示处理。

rc

信息

222

Group(%1) will be stopped since stopping resource(%2) failed.

由于资源%2的停止处理失败造成组%1将停止。

请按照组资源的消息提示处理。

rc

信息

223

Cluster daemon will be stopped since stopping resource(%1) failed.

由于资源%1的停止处理失败造成集群Daemon将停止。

请按照组资源的消息提示处理。

rc

信息

224

System will be halted since stopping resource(%1) failed.

由于资源%1的停止处理失败造成 OS 将停止。

请按照组资源的消息提示处理。

rc

信息

225

System will be rebooted since stopping resource(%1) failed.

由于资源%1的停止处理失败造成 OS 将重启。

请按照组资源的消息提示处理。

rc

信息

240

System panic by sysrq is requested since activating resource(%1) failed.

由于资源%1的启动异常,sysrq引发了系统panic请求。

请按照组资源的消息提示处理。

rc

信息

241

System reset by keepalive driver is requested since activating resource(%1) failed.

由于资源%1的启动异常,keepalive驱动引发了系统reset请求。

请按照组资源的消息提示处理。

rc

信息

242

System panic by keepalive driver is requested since activating resource(%1) failed.

由于资源%1的启动异常,keepalive驱动引发了系统panic请求。

请按照组资源的消息提示处理。

rc

信息

243

System reset by BMC is requested since activating resource(%1) failed.

由于资源%1的启动异常,BMC引发了系统reset请求。

请按照组资源的消息提示处理。

rc

信息

244

System power down by BMC is requested since activating resource(%1) failed.

由于资源%1的启动异常,BMC引发了系统power down请求。

请按照组资源的消息提示处理。

rc

信息

245

System power cycle by BMC is requested since activating resource(%1) failed.

由于资源%1的启动异常,BMC引发了系统power cycle请求。

请按照组资源的消息提示处理。

rc

信息

246

NMI send by BMC is requested since activating resource(%1) failed.

由于资源%1的启动异常,BMC引发了发送NMI请求。

请按照组资源的消息提示处理。

rc

信息

247

IO Fencing by ACPI driver is requested since activating resource(%1) failed.

由于资源%1的启动异常,ACPI驱动程序引发了IO Fencing请求。

请按照组资源的消息提示处理。

rc

错误

260

An attempt to panic system by sysrq due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由sysrq引发系统panic,但失败了。

请确认系统能否使用sysrq。

rc

错误

261

An attempt to reset system by keepalive driver due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由keepalive驱动引发系统reset,但失败了。

请确认环境能否使用keepalive驱动。

rc

错误

262

An attempt to panic system by keepalive driver due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由keepalive驱动引发系统panic,但失败了。

请确认环境能否使用keepalive驱动。

rc

错误

263

An attempt to reset system by BMC due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由BMC引发系统reset,但失败了。

请确认能否使用ipmitool命令。

rc

错误

264

An attempt to power down system by BMC due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由BMC引发系统power down,但失败了。

请确认能否使用ipmitool命令。

rc

错误

265

An attempt to power cycle system by BMC due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由BMC引发系统power cycle,但失败了。

请确认能否使用ipmitool命令。

rc

错误

266

An attempt to send NMI by BMC due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由BMC引发发送NMI,但失败了。

请确认能否使用ipmitool命令。

rc

错误

267

An attempt to IO Fencing by ACPI driver due to failure of resource(%1) activation failed.

由于资源%1的启动异常,尝试由ACPI驱动程序执行IO Fencing,但失败了。

请确认能否使用EXPRESSCLUSTER联动用ACPI驱动程序。

rc

信息

280

System panic by sysrq is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由sysrq引发了系统panic请求。

请按照组资源的消息提示处理。

rc

信息

281

System reset by keepalive driver is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由keepalive驱动引发了系统reset请求。

请按照组资源的消息提示处理。

rc

信息

282

System panic by keepalive driver is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由keepalive驱动引发了系统panic请求。

请按照组资源的消息提示处理。

rc

信息

283

System reset by BMC is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由BMC引发了系统reset请求。

请按照组资源的消息提示处理。

rc

信息

284

System power down by BMC is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由BMC引发了系统power down请求。

请按照组资源的消息提示处理。

rc

信息

285

System power cycle by BMC is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由BMC引发了系统power cycle请求。

请按照组资源的消息提示处理。

rc

信息

286

Sending NMI by BMC is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,由BMC引发了发送NMI请求。

请按照组资源的消息提示处理。

rc

信息

287

IO Fencing by ACPI driver is requested since deactivating resource(%1) failed.

由于资源%1的停止异常,尝试由ACPI驱动程序执行IO Fencing。

-

rc

错误

300

An attempt to panic system by sysrq due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由sysrq引发系统panic,但失败了。

请确认系统能否使用sysrq。

rc

错误

301

An attempt to reset system by keepalive driver due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由keepalive驱动引发系统reset,但失败了。

请确认环境能否使用keepalive驱动。

rc

错误

302

An attempt to panic system by keepalive driver due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由keepalive驱动引发系统panic,但失败了。

请确认环境能否使用keepalive驱动。

rc

错误

303

An attempt to reset system by BMC due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由BMC引发系统reset,但失败了。

请确认能否使用ipmitool命令。

rc

错误

304

An attempt to power down system by BMC due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由BMC引发系统power down,但失败了。

请确认能否使用ipmitool命令。

rc

错误

305

An attempt to power cycle system by BMC due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由BMC引发系统power cycle,但失败了。

请确认能否使用ipmitool命令。

rc

错误

306

An attempt to send NMI by BMC due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由BMC引发发送NMI,但失败了。

请确认能否使用ipmitool命令。

rc

错误

307

An attempt to IO Fencing by ACPI driver due to failure of resource(%1) deactivation failed.

由于资源%1的停止异常,尝试由ACPI驱动程序执行IO Fencing,但失败了。

请确认能否使用EXPRESSCLUSTER联动用ACPI驱动程序。

rc

错误

340

Group start has been canceled because waiting for group %1 to start has failed.

组的启动等待处理中发生了故障。

可执行因为内存不足或者OS的资源不足。请确认。

rc

信息

350

Group %1 started to check the double activation.

开始组%1的双重启动检查。

-

rc

信息

351

Group %1 completed to check the double activation.

结束组%1的双重启动检查。

-

rc

错误

352

Group %1 failed to check the double activation.

组%1的双重启动检查失败。

请确认组的状态。

rc

信息

353

Waiting for group %1 to start for check the double activation.

由于双重启动检查,等待组%1的启动。

请确认组的状态。

rc

信息

400

System power down by BMC is requested. (destination server : %1)

请求通过BMC进行系统power down。(对象服务器 : %1)

-

rc

信息

401

System power cycle by BMC is requested. (destination server : %1)

请求通过BMC进行系统power cycle。(对象服务器 : %1)

-

rc

信息

402

System reset by BMC is requested. (destination server : %1)

请求通过BMC进行系统重置。(对象服务器 : %1)

-

rc

信息

403

Sending NMI by BMC is requested. (destination server : %1)

请求通过BMC发送NMI。(对象服务器 : %1)

-

rc

信息

410

Forced stop of virtual machine is requested. (destination server : %s)

请求虚拟机的强制停止。(对象服务器 : %1)

-

rc

信息

411

Script for forced stop has started.

强制停止脚本已经开始。

-

rc

信息

412

Script for forced stop has completed.

强制停止脚本已经结束。

-

rc

错误

420

An attempt to power down system by BMC failed. (destination server : %1)

请求通过BMC进行系统power down失败。(对象服务器 : %1)

请确认ipmitool。

rc

错误

421

An attempt to power cycle system by BMC failed. (destination server : %1)

请求通过BMC进行系统power cycle失败。(对象服务器 : %1)

请确认ipmitool。

rc

错误

422

An attempt to reset system by BMC failed. (destination server : %1)

请求通过BMC进行系统重置失败。(对象服务器 : %1)

请确认ipmitool。

rc

错误

423

An attempt to send NMI by BMC failed. (destination server : %1)

请求通过BMC发送NMI失败。(对象服务器 : %1)

请确认ipmitool。

rc

错误

430

An attempt to force stop virtual machine failed. (destination server : %s)

请求虚拟机的强制停止,但失败了。(对象服务器 : %1)

请确认VMware vSphere CLI是否可以使用。

rc

错误

431

Script for forced stop has failed. (%1)

强制停止脚本失败。(%1)

请确认脚本失败的原因,进行对应处理。

rc

错误

432

Script for forced stop has timed out.

强制停止脚本发生超时。

请确认脚本超时的原因,进行对应处理。

rc

警告

433

Group failover has been canceled because forced stop of server %1 failed.

由于服务器%1的强制停止失败,所以不执行失效切换。

请确认强制停止失败的原因,进行对应处理。

rc

警告

441

Waiting for group %1 to stop has failed. However, group stop continues.

组的启动等待处理中发生了故障。

可执行因为内存不足或者OS的资源不足。请确认。

rc

警告

460

The group %1 which were activated on the server %2 will be activated on the same server because its reboot has been completed within the heartbeat timeout.

由于服务器重新启动已在心跳超时之前完成,因此要在同一服务器上启动已在服务器%2上启动的组%1了。

请调整OS启动时间,以使服务器无法在心跳超时时间内完成重启。

rc

警告

500

Since there is no other normally running server, the final action for an activation error of group resource %1 was suppressed.

因没有其他正常运行中的服务器,控制了组资源%1启动异常的最终动作。

-

rc

警告

501

Since there is no other normally running server, the final action for a deactivation error of group resource %1 was suppressed.

因没有其他正常运行中的服务器,控制了组资源%1停止异常的最终动作。

-

rc

警告

502

Since server %1 is specified as that which suppresses shutdown at both-system activation detection, it ignored the shutdown request.

当%1查出双启动时已指定控制关机的服务器,因此,忽视关机请求。

-

rc

警告

503

A mismatch in the group %1 status occurs between the servers.

服务器之间发生组%1状态不匹配。

请执行组重启或者集群重启。

rc

信息

504

Since server %1 is not specified as that which suppresses shutdown at both-system activation detection, it executed the shutdown request.

%1由于没有被指定为发生两机双活时抑制宕机服务器,执行了宕机请求。

-

rc

警告

510

Cluster operation is disabled.

集群动作被禁用。

-

rc

警告

511

Ignored the automatic start of groups because automatic group startup is disabled.

因为组的自动启动禁用,忽视组的自动启动。

-

rc

警告

512

Ignored the recovery action in resource activation because recovery action caused by group resource activation error is disabled.

因为组资源启动异常时的复归动作禁用,忽视资源的复归动作。

-

rc

警告

513

Ignored the recovery action in resource deactivation because recovery action caused by group resource deactivation error is disabled.

因为组资源停止异常时的复归动作禁用,忽视资源的复归动作。

-

rc

信息

514

Cluster operation is set disabled.

禁用集群动作。

-

rc

信息

515

Cluster operation is set enabled.

启用集群动作。

-

rm

信息

1

Monitoring %1 has started.

开始了%1的监视。

-

rm

信息

2

Monitoring %1 has stopped.

%1的监视已停止。

-

rm

信息

3

%1 is not monitored by this server.

%1的监视在本服务器上不执行。

-

rm

警告

4

Warn monitoring %1. (%2 : %3)

警告%1的监视。

请参考"监视资源异常时的详细信息"。

监视资源处于监视准备中时,()内可执行设置为以下的消息。不需要处理此次消息。

(100 : not ready for monitoring.)

rm

警告

5

The maximum number of monitor resources has been exceeded. (registered resource is %1)

超过了最大监视资源数。

请使用Cluster WebUI确认集群配置信息。

rm

警告

6

Monitor configuration of %1 is invalid. (%2 : %3)

%1的监视配置无效。

请使用Cluster WebUI确认集群配置信息。

rm

错误

7

Failed to start monitoring %1.

启动%1的监视失败。

可执行是内存不足或OS资源不足。请确认。

rm

错误

8

Failed to stop monitoring %1.

%1的监视的停止失败。

可执行是内存不足或OS资源不足。请确认。

rm

错误

9

Detected an error in monitoring %1. (%2 : %3)

%1的监视中查出异常。

请参考"监视资源异常时的详细信息"。

查出监视超时时,()内将显示以下消息。

(99: Monitor was timeout.)

故障验证中时,()内的消息设置如下。此情况下不需对应。

(201: Monitor failed for failure verification.)

如果在一定时间内没有接收到监视资源的响应,()内设置以下的消息。

(202: couldn't receive reply from monitor resource in time.)

rm

信息

10

%1 is not monitored.

未监视%1。

-

rm / mm

信息

12

Recovery target %1 has stopped because an error was detected in monitoring %2.

由于%2的监视中查出异常,复原目标 %1已被停止。

-

rm / mm

信息

13

Recovery target %1 has restarted because an error was detected in monitoring %2.

由于%2的监视中查出异常,复原目标 %1已被重启。

-

rm / mm

信息

14

Recovery target %1 failed over because an error was detected in monitoring %2.

由于%2的监视中查出异常,复原目标 %1已被失效切换。

-

rm / mm

信息

15

Stopping the cluster has been required because an error was detected in monitoring %1.

由于%1的监视中查出异常,请求停止集群。

-

rm / mm

信息

16

Stopping the system has been required because an error was detected in monitoring %1.

由于%1的监视中查出异常,请求停止系统。

-

rm / mm

信息

17

Rebooting the system has been required because an error was detected in monitoring %1.

由于%1的监视中查出异常,请求重启系统。

-

rm / mm

错误

18

Attempted to stop the recovery target %1 due to the error detected in monitoring %2, but failed.

由于%2的监视异常,试图停止复原目标%1,但是失败了。

请确认%1资源的状态。

rm / mm

错误

19

Attempted to restart the recovery target %1 due to the error detected in monitoring %2, but failed.

由于%2的监视异常,试图重启复原目标%1,但是失败了。

请确认%1资源的状态。

rm / mm

错误

20

Attempted to fail over %1 due to the error detected in monitoring %2, but failed.

由于%2的监视异常,试图失效切换复原目标%1,但是失败了。

请确认%1资源的状态。

rm / mm

错误

21

Attempted to stop the cluster due to the error detected in monitoring %1, but failed.

由于%1的监视异常,试图停止集群,但是失败了。

可执行是内存不足或OS资源不足。请确认。

rm / mm

错误

22

Attempted to stop the system due to the error detected in monitoring %1, but failed.

由于%1的监视异常,试图停止系统,但是失败了。

可执行是内存不足或OS资源不足。请确认。

rm / mm

错误

23

Attempted to reboot the system due to the error detected in monitoring %1, but failed.

由于%1的监视异常,试图重启系统,但是失败了。

可执行是内存不足或OS资源不足。请确认。

rm

错误

24

The group of %1 resource is unknown.

%1资源所属组不明。

可执行集群配置信息不一致。请确认。

rm / mm

警告

25

Recovery will not be executed since the recovery target %1 is not active.

由于复原目标%1为停止,无法进行复原操作。

-

rm / mm

信息

26

%1 status changed from error to normal.

%1的监视已从异常复原为正常。

-

rm / mm

信息

27

%1 status changed from error or normal to unknown.

%1的监视从异常或正常变为不明状态。

可执行是内存不足或OS资源不足。请确认。

rm

错误

28

Initialization error of monitor process. (%1 : %2)

监视进程的初始化错误。

可执行是内存不足或OS资源不足。请确认。

rm

信息

29

Monitoring %1 was suspended.

暂时停止了%1的监视。

-

rm

信息

30

Monitoring %1 was resumed.

重新开始了%1的监视。

-

rm

信息

31

All monitors were suspended.

暂时停止所有监视。

-

rm

信息

32

All monitors were resumed.

重新开始了所有监视。

-

rm / mm

信息

35

System panic by sysrq has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,sysrq引发了系统panic请求。

-

rm / mm

错误

36

Attempted to panic system by sysrq due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由sysrq引发系统panic,但失败了。

请确认系统能否使用sysrq。

rm / mm

信息

37

System reset by keepalive driver has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由keepalive驱动引发了系统reset请求。

-

rm / mm

错误

38

Attempted to reset system by keepalive driver due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由keepalive驱动引发系统reset,但失败了。

请确认环境能否使用keepalive驱动。

rm / mm

信息

39

System panic by keepalive driver has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由keepalive驱动引发了系统panic请求。

-

rm / mm

错误

40

Attempted to panic system by keepalive driver due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由keepalive驱动引发系统panic,但失败了。

请确认环境能否使用keepalive驱动。

rm / mm

信息

41

System reset by BMC has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由BMC引发了系统reset请求。

-

rm / mm

错误

42

Attempted to reset system by BMC due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由BMC引发系统reset,但失败了。

请确认能否使用ipmitool命令。

rm / mm

信息

43

System power down by BMC has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由BMC引发了系统power down请求。

-

rm / mm

错误

44

Attempted to power down system by BMC due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由BMC引发系统power down,但失败了。

请确认能否使用ipmitool命令。

rm / mm

信息

45

System power cycle by BMC has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,由BMC引发了系统power cycle请求。

-

rm / mm

错误

46

Attempted to power cycle system by BMC due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由BMC引发系统power cycle,但失败了。

请确认能否使用ipmitool命令。

rm / mm

信息

47

NMI send by BMC has been required because an error was detected in monitoring %1.

由于%1监视异常, 请求BMC的系统NMI。

-

rm / mm

错误

48

Attempted to send NMI by BMC due to the error detected in monitoring %1, but failed.

由于%1的监视异常,执行BMC的系统NMI时失败。

请确认能否使用ipmitool命令。

rm

信息

49

%1 status changed from warning to normal.

%1的监视从警告恢复到正常状态。

-

rm

错误

57

Stopping the cluster is required since license (%1) is invalid.

由于License无效,请求停止集群。

请注册有效的License。

rm

错误

58

Stopping the cluster due to invalid license (%1) failed.

由于License无效,无法停止集群。

请注册有效的License。

rm

警告

60

Cluster operation is forcibly disabled since a valid license has not been registered.

由于没有注册有效的License,因此集群动作被强制禁用。

请注册License许可。注册License许可后,最多可执行需要1小时才能解除强制禁用集群运行。如果想马上解除,注册License许可后请执行集群的挂起/恢复。

rm

信息

61

The forcible disablement of cluster operation was canceled since the valid licenses are registered.

由于已注册有效的License,因此强制禁用集群动作已被解除。

-

rm

警告

71

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

%1的监视中查出监视延迟。当前的超时值为%2(秒) x %3(每秒的tick count)。查出延迟时的实测值为%4(tick count),超过了延迟警告比例 %5(%)。

请确认查出监视延迟的服务器的负载情况,并清除负载。

如果仍然查出监视超时,则需要延长监视超时时间。

rm

警告

72

%1 could not Monitoring.

%1不能执行监视处理。

内存不足或者OS资源不足。请确认。

rm / mm

信息

81

Script before %1 upon failure in monitor resource %2 started.

开始%2监视资源的%1前脚本。

-

rm / mm

信息

82

Script before %1 upon failure in monitor resource %2 completed.

结束%2监视资源的%1前脚本。

-

rm / mm

错误

83

Script before %1 upon failure in monitor resource %2 failed.

%2监视资源的%1前脚本失败。

请确认脚本失败原因,进行对应处理。

rm

警告

100

Restart count exceeded the maximum of %1. Final action of monitoring %2 will not be executed.

重启次数超过最大值 %1,所以没有执行%1的最终操作。

-

rm

警告

120

The virtual machine (%1) has been migrated to %2 by an external operation.

由于外部操作导致%1资源所管理的虚拟机被转移到服务器%2上。

-

rm

警告

121

The virtual machine (%1) has been started by an external operation.

%1资源管理的虚拟机通过外部操作被启动。

-

rm

信息

130

The collecting of detailed information triggered by monitor resource %1 error has been started (timeout=%2).

开始收集监视资源%1的监视异常查出时的详细信息。超时为%2秒。

-

rm

信息

131

The collection of detailed information triggered by monitor resource %1 error has been completed.

完成收集监视资源%1收集监视异常查出时的详细信息。

-

rm

警告

132

The collection of detailed information triggered by monitor resource %1 error has been failed (%2).

收集监视资源%1的监视异常的详细信息失败。

-

rm

信息

140

Process %1 has started.

启动了进程%1。

-

rm

警告

141

Process %1 has been restarted.

重启了进程%1。

-

rm

警告

142

Process %1 does not exist.

清除了进程%1。

-

rm

错误

143

Process %1 was restarted %2 times, but terminated abnormally.

虽%2次重启了进程%1,但异常结束。

内存不足或者OS资源不足。请确认。

rm

错误

150

The cluster is stopped since process %1 was terminated abnormally.

因进程%1异常结束,停止集群。

内存不足或者OS资源不足。请确认。

rm

错误

151

The server is shut down since process %1 was terminated abnormally.

因进程%1异常结束,关闭服务器。

内存不足或者OS资源不足。请确认。

rm

错误

152

The server is restarted since process %1 was terminated abnormally.

因进程%1异常结束,重启服务器。

内存不足或者OS资源不足。请确认。

rm

错误

160

Monitor resource %1 cannot be controlled since the license is invalid.

因License无效,无法控制监视资源%1。

请注册有效的License。

rm

信息

170

Recovery script has been executed since an error was detected in monitoring %1.

在%1的监视中查出了异常,因此执行了复归脚本。

-

rm

错误

171

An attempt was made to execute the recovery script due to a %1 monitoring failure, but failed.

由于%1的监视异常实行了复归脚本,结果失败。

请确认复归脚本失败的原因,并采取对策。

rm

信息

180

Dummy Failure of monitor resource %1 is enabled.

开始监视资源%1的模拟故障。

-

rm

信息

181

Dummy Failure of monitor resource %1 is disabled.

停止了监视资源%1的模拟故障。

-

rm

信息

182

Dummy Failure of all monitor will be enabled.

开始所有监视资源的模拟故障。

-

rm

信息

183

Dummy Failure of all monitor will be disabled.

停止监视资源%1的模拟故障。

-

rm

警告

184

An attempt was made to enable Dummy Failure of monitor resource %1, but failed.

开始监视资源%1的模拟故障失败。

请确认监视资源%1是否支持模拟故障功能。

rm

警告

185

An attempt was made to disable Dummy Failure of monitor resource %1, but failed.

停止监视资源%1的模拟故障失败。

请确认监视资源%1是否支持模拟故障功能。

rm

信息

190

Recovery action caused by monitor resource error is disabled.

监视资源异常时的复归动作无效。

-

rm

信息

191

Recovery action caused by monitor resource error is enabled.

监视资源异常时的复归动作执行有效。

-

rm

警告

192

Ignored the recovery action in monitoring %1 because recovery action caused by monitor resource error is disabled.

由于监视资源异常时的复归动作为无效,因此监视资源%1的复归动作被忽视。

-

rm

警告

193

Recovery action at timeout occurrence was disabled, so the recovery action of monitor %1 was not executed.

由于发生超时时的复归动作为无效,因此不执行监视资源%1的复归动作。

rm

警告

200

Since there is no other normally running server, the final action(%1) for the error detection of monitor resource %2 was suppressed.

由于没有其他正常运行中的服务器,因此,查出监视资源异常%2时,控制最终动作(%1)。

-

rm / mm

信息

210

IO Fencing by ACPI driver has been required because an error was detected in monitoring %1.

由于在%1的监视中查出异常,ACPI驱动程序引发了IO Fencing请求。

-

rm / mm

错误

211

Attempted to IO Fencing by ACPI driver due to the error detected in monitoring %1, but failed.

由于%1的监视异常,尝试由ACPI驱动程序执行IO Fencing,但失败了。

请确认是否处于可使用EXPRESSCLUSTER联动用ACPI驱动程序的环境。

rm

警告

220

Recovery will not be executed since any recovery target is not active.

由于存在未启动状态的复归对象,无法进行复归动作。

-

mm

信息

51

The trial license is effective until %1. (%2)

试用版License的有效期为%1。

-

mm

错误

53

The license is not registered. (%1)

未注册License。

请购买并注册License。

mm

错误

54

The trial license has expired in %1. (%2)

试用版License的有效期限已到。

请注册有效License。

mm

错误

55

The registered license is invalid. (%1)

已经注册的License无效。

请注册有效License。

mm

错误

56

The registered license is unknown. (%1)

已经注册的License状态不明。

请注册有效License。

mm

错误

59

The trial license is valid from %1. (%2)

试用版License尚未到生效期。

请注册有效License。

mm

信息

901

Message monitor has been started.

消息监视(消息接收监视的相关模块)已开始。

-

mm

错误

902

Failed to initialize message monitor. (%1 : %2)

消息监视(消息接收监视的相关模块)初始化失败。

内存不足或者OS资源不足。请确认。

mm

警告

903

An error of %1 type and %2 device has been detected. (%3)

接收到范畴%1,关键词%2,的外部错误%3。

-

mm

错误

905

An error has been detected in monitoring %1. (%2)

对监视资源%1的监视中,查出异常。

请按照%2的消息采取对策。

mm

错误

906

Message monitor was terminated abnormally.

消息监视(消息接收监视的相关模块)异常结束。

内存不足或者OS资源不足。请确认。

mm

错误

907

Failed to execute action. (%1)

复归操作执行失败。

内存不足或者OS资源不足。请确认。

mm

信息

908

The system will be stopped.

关闭OS。

-

mm

信息

909

The cluter daemon will be stopped.

停止集群。

-

mm

信息

910

The system will be rebooted.

重启OS。

-

mm

信息

911

Message monitor will be restarted.

重启消息监视(消息接收监视的相关模块)。

-

mm

信息

912

Received a message by SNMP Trap from external. (%1 : %2)

接收到SNMP Trap 的消息。消息中包含了项目 (%1)的信息 (%2)。

-

mm

信息

913

Received a Fatal Trap from %1. (msg : No data)

接收到从服务器%1发出的Fatal Trap。消息不包含项目(%2)的信息。

-

mm

信息

914

Received a Fatal Trap from %1. (msg : %2)

接收到从服务器%1发出的Fatal Trap。消息包含项目(%2)的信息。有关%2 (故障部位),请参考设备的维护指南 1

-

mm

警告

915

Received a Recoverble Trap. (Performance degradation) (msg : %1)

接收到Recoverble Trap。(性能降低故障。) 消息包含项目(%1)的信息。有关%1 (故障部位),请参考设备的维护指南 1

-

mm

警告

916

Received a Recoverble Trap. (Predict) (msg : %1)

接收到Recoverble Trap。(查出预兆故障。) 消息包含项目(%1)的信息。有关%1 (故障部位),请参考设备的维护指南 1

-

mm

警告

917

Received a Recoverble Trap.(Performance degradation & Predict) (msg : %1)

接收到Recoverble Trap。(查出预兆故障。) 消息包含项目(%1)的信息。有关%1 (故障部位),请参考设备的维护指南 1

-

trnsv

错误

1

There was a notification from external (IP=%1), but it was denied.

接收到来自%1的通知,但是未获得许可。

-

trnsv

信息

10

There was a notification (%1) from external (IP=%2).

从%2接收到通知(%1)。

-

trnsv

信息

20

Recovery action (%1) of monitoring %2 has been executed because a notification arrived from external.

接收到外部通知,开始执行监视资源%2异常时的动作 (%1)。

-

trnsv

信息

21

Recovery action (%1) of monitoring %2 has been completed.

监视资源%2异常时动作 (%1)执行成功。

-

trnsv

错误

22

Attempted to recovery action (%1) of monitoring %2, but it failed.

监视资源%2异常时动作 (%1)执行失败。

请确认环境是否允许执行异常动作。

trnsv

信息

30

Action (%1) has been completed.

操作(%1)执行成功。

-

trnsv

警告

31

Attempted to execute action (%1), but it failed.

操作(%1)执行失败。

请确认环境是否允许执行异常动作。

trnsv

信息

40

Script before action of monitoring %1 has been executed.

执行监视资源(%1)的异常动作前脚本。

-

trnsv

信息

41

Script before action of monitoring %1 has been completed.

监视资源(%1)的异常动作前脚本执行成功。

-

trnsv

错误

42

Attempted to execute script before action of monitoring %1, but it failed.

监视资源(%1)的异常动作前脚本执行失败。

请确认环境是否允许执行异常动作。

trnsv

错误

50

The system will be shutdown because cluster resume was failed.

由于集群恢复失败,所以系统关机。

-

trnsv

错误

51

An attempt to shutdown the system failed.

系统关机失败。

系统可执行无法正常运行。

trnsv

信息

83

Starting a dynamic adding resource %1 into %2.

开始动态追加资源%1到%2。

-

trnsv

信息

84

A dynamic adding resource %1 has completed.

资源%1的动态追加完成。

-

trnsv

错误

85

Failed to a dynamic adding resource %1.

资源%1的动态追加失败。

请根据组资源的消息进行处理。

trnsv

警告

86

Server %1 is not in a condition to start a dynamic adding resource %2.

服务器%1无法动态追加资源%2。

请确认服务器以及组的状态。

trnsv

信息

87

Deleting a resource %1 from %2.

正在从%2删除%1。

-

trnsv

信息

88

Deleting a resource %1 has completed.

资源%1的删除完成。

-

trnsv

错误

89

Failed to Delete a resource %1.

资源%1的删除失败。

请根据组资源的消息进行处理。

lanhb

警告

71

Heartbeats sent from HB resource %1 of server %2 are delayed.

(timeout=%3*%4 actual-time=%5 delay warning rate=%6)

服务器%2的HB资源%1的心跳确认发生延迟。当前的超时值为 %3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认服务器%2的负载情况,并清除负载。

如果仍然发生HB超时,则需要延长HB超时时间。

lanhb

警告

72

Heartbeats sent from HB resource %1 are delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6)

发送HB资源%1的心跳信息时发生延迟。收信服务器为%2。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。

如果仍然发生HB超时,则需要延长HB超时时间。

lanhb

警告

73

Heartbeats received by HB resource %1 are delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6)

接收HB资源%1的心跳信息时发生延迟。发信的源服务器为%2。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。

如果仍然发生HB超时,则需要延长HB超时时间。

lankhb

警告

71

Heartbeats sent from HB resource %1 of server %2 are delayed.

(timeout=%3*%4 actual-time=%5 delay warning rate=%6)

服务器%2的HB资源%1的心跳确认发生延迟。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认服务器%2的负载情况,并清除负载。

如果仍然发生HB超时,则需要延长HB超时时间。

lankhb

警告

73

Heartbeats received from HB resource %1 is delayed.

(timeout=%2*%3 actual-time=%4 delay warning rate=%5)

接收HB资源 %1 的心跳信息时发生延迟。发信的源服务器为%2。当前的超时值为%3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。

如果仍然发生HB超时,则需要延长HB超时时间。

diskhb

错误

10

Device(%1) of resource(%2) does not exist.

设备不存在。

请确认集群配置信息。

diskhb

错误

11

Device(%1) of resource(%2) is not a block device.

设备不存在。

请确认集群配置信息。

diskhb

错误

12

Raw device(%1) of resource(%2) does not exist.

设备不存在。

请确认集群配置信息。

diskhb

错误

13

Binding device(%1) of resource(%2) to raw device(%3) failed.

设备不存在。

请确认集群配置信息。

diskhb

错误

14

Raw device(%1) of resource(%2) has already been bound to other device.

资源%2的raw设备 %1捆绑在其他设备上。

请设置尚未使用的raw设备。

diskhb

错误

15

File system exists on device(%1) of resource(%2).

资源%2的设备%1 中存在文件系统。

如果使用设备%1 ,则请删除文件系统。

diskhb

信息

20

Resource %1 recovered from initialization error.

资源%1从初始化错误中已复原。

-

diskhb

警告

71

Heartbeats sent from HB resource %1 of server %2 are delayed.

(timeout=%3*%4 actual-time=%5 delay warning rate=%6)

服务器 %2 的HB资源 %1 的心跳确认发生延迟。当前的超时值为 %3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认服务器 %2 的负载情况,并清除负载。

如果仍然发生HB超时,则需要延长HB超时时间。

diskhb

警告

72

Heartbeat write of HB resource %1 is delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6).

写入HB资源 %1 的心跳信息时发生延迟。写入的目标服务器为 %2 。当前的超时值为 %3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。

如果仍然发生HB超时,则需要延长HB超时时间。

diskhb

警告

73

Heartbeat read of HB resource %1 is delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6)

读取HB资源 %1 的心跳信息时发生延迟。读取信息的源服务器是 %2 。当前的超时值为 %3(秒) x %4(每秒的tick count)。发生延迟的实测值为 %5(tick count),超过延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。

如果仍然发生HB超时,则需要延长HB超时时间。

comhb

信息

1

Device (%1) does not exist.

设备不存在。

请确认集群配置信息。

comhb

信息

2

Failed to open the device (%1).

打开设备失败。

可执行是内存不足或OS资源不足。请确认。

comhb

警告

71

Heartbeats sent from HB resource %1 of server %2 are delayed.

(timeout=%3*%4 actual-time=%5 delay warning rate=%6)

服务器 %2 的HB资源 %1 的心跳确认发生延迟。当前的超时值为 %3(秒) x %4(每秒的tick count)。发生延迟时的实测值为 %5(tick count),超过了延迟警告比例 %6(%)。

请确认服务器 %2 的负载情况,并清除负载。

如果仍然发生HB超时,则需要延长HB超时时间。

comhb

警告

72

Heartbeat write of HB resource %1 is delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6).

写入HB资源 %1 的心跳信息时发生延迟。写入的目标服务器为 %2 。当前的超时值为 %3(秒) x %4(每秒的tick count)。发生延迟时的实测值为%5(tick count),超出延迟警告比例%6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。

如果仍然发生HB超时,则需要延长HB超时时间。

comhb

警告

73

Heartbeat read of HB resource %1 is delayed.(server=%2 timeout=%3*%4 actual-time=%5 delay warning rate=%6)

HB资源%1的心跳读入发生延迟。发信源服务器是 %2 。目前的超时值是 %3(秒) x %4(1秒左右的tick count)。发生延迟时的实测值为 %5(tick count),超出延迟警告比例 %6(%)。

请确认被警告有延迟的服务器的负荷状况,并清除负荷。

如果仍然发生HB超时,则需要延长HB超时时间。

bmchb

错误

10

Failed to initialize to BMC.

BMC初始化失败。

请确认硬件是否可使用BMC连接功能。

bmchb

警告

71

Heartbeats sent from HB resource %1 of server %2 are delayed.

(timeout=%3*%4 actual-time=%5 delay warning rate=%6)

服务器2的HB资源%1的心跳读入发生延迟。目前的超时值是 %3(秒) x %4(1秒左右的tick count)。发生延迟时的实测值为 %5(tick count),超出延迟警告比例 %6(%)。

请确认服务器%2的负荷状况,并清除负荷。

如果仍然发生HB超时,则需要延长HB超时时间。

monp

错误

1

An error occurred when initializing monitored process %1. (status=%2)

监视对象进程 %1的初始化错误。

可执行是内存不足,OS资源不足,或集群配置信息不准确。请确认。

如果未登录集群配置信息,将会输出下列进程的消息,但是没有问题。

  • mdagnt

  • webmgr

  • webalert

monp

错误

2

Monitor target process %1 terminated abnormally. (status=%2)

监视对象进程 %1异常结束。

可执行是内存不足或OS资源不足。请确认。

monp

信息

3

Monitor target process %1 will be restarted.

重启监视对象进程 %1 。

-

monp

信息

4

The cluster daemon will be stopped since the monitor target process %1 terminated abnormally.

由于监视对象进程 %1的异常结束,停止集群。

-

monp

错误

5

Attempted to stop the cluster daemon, but failed.

欲停止集群,但失败。

可执行是集群未启动,内存不足或OS资源不足。请确认。

monp

信息

6

The system will be stopped since the monitor target process %1 terminated abnormally.

由于监视对象进程%1的异常结束,停止系统。

-

monp

错误

7

Attempted to stop the system, but failed. (status=%#x)

欲停止系统,但失败。

可执行是集群未启动,内存不足或OS资源不足。请确认。

monp

信息

8

System will be rebooted since monitor target process %1 terminated abnormally.

由于监视对象进程%1的异常结束,重启系统。

-

monp

错误

9

Attempted to reboot the system, but failed. (status=%#x)

欲重启系统,但失败。

可执行是集群未启动,内存不足或OS资源不足。请确认。

md / hd

错误

1

Failed to activate mirror disk.%1(Device:%2)

%2的启动失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

Failed to open I/O port.

端口的打开失败。请确认集群配置信息。

The local server hasn't the latest data.

自身服务器未保持最新数据。需要进行镜像复归操作。

Communication to the remote server failed.

与对方服务器的通信失败。请确认镜像磁盘连接的连接状态。

The remote server is active.

在对方服务器上启动完毕。请确认镜像磁盘资源的状态。

The local server was already active.

在自身服务器上启动完毕。请确认镜像磁盘资源的状态。

Mount operation failed.

Mount失败。请确认是否存在MountPoint,或者集群配置信息的MountOption等是否正确。

NMP size of local server is bigger

自身服务器比对方服务器的NMP容量大。请将对方服务器作为镜像复归源服务器,执行强制镜像复归。

Failed to set writable mode for data partition

请重启要启动资源的服务器。请注意服务器重启时,可执行发生失效切换。

Replicator license is invalid or expired.

请注册有效License。

md / hd

信息

2

fsck to %1 has started.

开始%1的fsck 。

-

md / hd

信息

3

fsck to %1 was successful.

%1的 fsck 成功。

-

md / hd

错误

4

Failed to deactivate mirror disk.%1(Device:%2)

%2的停止失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

The mirror disk was already deactivated.

已经停止完毕。请确认镜像磁盘资源的状态。

Unmount operation failed.

unmount失败。请确认镜像磁盘资源的文件系统是否处于忙碌状态。

md / hd

信息

16

Initial mirror recovery of %1 has started.

%1 的初始镜像构建准备开始。

-

md / hd

信息

18

Initial mirror recovery of %1 was successful.

%1 的初始镜像构建准备成功。

-

md / hd

警告

24

One of the servers is active, but the NMP size of mirror disks are not the same. (Device:%1)

在某个服务器上是启动状态,但NMP容量不一致。

请将启动的服务器作为镜像复归源服务器,执行强制镜像复归。

md / hd

错误

37

%1 of %2 failed (ret=%3).

磁盘%2的命令%1返回值为%3,处理失败。

请参考命令%1的手册。

md / hd

警告

38

Executing %1 of %2 with %3 option is necessary. Execute the command manually.

需要指定参数%3 对设备%2执行命令%1。请手动执行命令。

手动指定参数%3执行%命令。

md / hd

信息

39

%1 of %2 with %3 option has started.

指定参数%3对设备2%开始命令%1。

-

md / hd

信息

44

Mirror recovery of %1 was canceled.

%1 的镜像恢复被取消。

-

md / hd

信息

45

Failed to cancel mirror recovery of %1.

%1 的镜像恢复取消失败。

请再次执行镜像恢复的中断。

md / hd

错误

46

umount timeout. Make sure that the length of Unmount Timeout is appropriate. (Device:%1)

%1 的镜像的卸载超时。

请确认卸载的超时时间的设置是否充分。

(请参考《开始指南》的"注意限制事项"的"镜像磁盘资源,共享型镜像磁盘资源终止时的注意事项"和"因大量 I/O而导致的缓存增大"。)

md / hd

错误

47

fsck timeout.

Make sure that the length of Fsck Timeout is appropriate. (Device:%1)

%1 的镜像挂载前执行的 fsck 超时。

请确认fsck超时的设置是否充分。

(请参考《开始指南》的"注意限制事项"的"关于执行fsck 的"。)

mdadmn

错误

1

Failed to activate mirror disk. %1(Device:%2)

%2的启动失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

Failed to open I/O port.

端口的打开失败。请确认集群配置信息。

The local server doesn't have the latest data.

自身服务器未保持最新数据。需要进行镜像复归操作。

Communication to the remote server failed.

与对方服务器的通信失败。请确认镜像磁盘连接的连接状态。

The remote server is active.

在对方服务器上启动完毕。请确认镜像磁盘资源的状态。

The local server is already active.

在自身服务器上启动完毕。请确认镜像磁盘资源的状态。

Mount operation failed.

Mount失败。请确认是否存在MountPoint,或者集群配置信息的MountOption等是否正确。

NMP size of the local server is greater than that of the remote server.

自身服务器比对方服务器的NMP容量大。请将对方服务器作为镜像复归源服务器,执行强制镜像复归。

One of other inter-connection works well except mirror disk connections.

确认用于镜像连接的LAN是否正常。

Replicator license is invalid or expired.

请注册有效License。

mdadmn

信息

2

fsck to %1 has started.

开始%1的 fsck 。

-

mdadmn

信息

3

fsck to %1 was successful.

%1的 fsck 成功。

-

mdadmn

错误

4

Failed to deactivate mirror disk.%1(Device:%2)

%2的停止失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

The mirror disk was already deactivated.

已经停止完毕。请确认镜像磁盘资源的状态。

Unmount operation failed.

unmount失败。请确认镜像磁盘资源的文件系统是否处于忙碌状态。

mdadmn

错误

5

Failed to recover the mirror. %1(Device:%2)

%2的镜像复归失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

The recovery is in progress.

镜像复归中。确认镜像复归结束后,请重新执行。

The destination server is active.

复制目标服务器上的镜像磁盘资源启动完毕。请确认镜像磁盘资源的状态。

Can not judge the recovery direction.

不能限定镜像复归方向。需要强制进行镜像复归操作。

The source server is abnormal.

复制源服务器的状态异常。请确认镜像Agent的状态。

NMP size of recovery destination is smaller.

请更改镜像复归方向。无法更改镜像复归方向时,请更换镜像复归来源的镜像磁盘,确保容量充足的数据分区。或者用fdisk等命令确保容量充足的数据分区。

Replicator license is invalid or expired.

请注册有效License。

mdadmn

信息

6

Mirror recovery of %1 was completed successfully.

%1的镜像复归成功。

-

mdadmn

信息

7

Mirror recovery mode is %1.(Device:%2)

镜像复归模式为%1 。%1为 "NORMAL" 时,为全面镜像复归(Full Copy)。

%1 为"FAST" 时,为差异镜像复归。

-

mdadmn

信息

8

The number of Replicator Option licenses is %1. (%2)

Replicator Option的License数为%1 。

-

mdadmn

信息

9

The trial license is effective until %1. (%2)

试用版License的有效期为%1。

-

mdadmn

错误

10

The registered license is unknown. (%1)

已经注册的License状态不明。

请注册有效License。

mdadmn

错误

11

The registered license is invalid. (%1)

已经注册的License无效。

请注册有效License。

mdadmn

错误

12

The license is not registered. (%1)

未注册License。

请购买并注册License。

mdadmn

警告

13

The number of licenses %1 is insufficient. (%2)

License不足。

请购买缺少的License并注册。

mdadmn

错误

14

The trial license expired in %1. (%2)

试用版License的有效期限已到。

请注册有效License。

mdadmn

错误

15

The trial license is effective from %1. (%2)

未到试用版License的有效期间。

请注册有效License。

mdadmn

信息

16

Initial mirror recovery of %1 has started.

开始%1的初始镜像构筑。

-

mdadmn

信息

17

Mirror recovery of %s has started.(%d bytes)

开始%1的镜像复归。

-

mdadmn

信息

18

Initial mirror recovery of %1 was successful.

%1的初始镜像构筑成功。

-

mdadmn

错误

19

Failed to perform initial mirror recovery.%1(Device:%2)

%2 的初始镜像构筑失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

The recovery is in progress.

镜像复归中。确认镜像复归结束后,请重新执行。

The destination server is active.

复制目标服务器上的资源启动完毕。请确认镜像磁盘资源的状态。

Can not judge the recovery direction.

无法限定镜像复归方向。需要强制进行镜像复归操作。

The source server is abnormal.

复制源服务器的状态异常。请确认镜像Agent的状态。

mdadmn

信息

20

Initial mirror recovery was not executed following the configuration. (Device:%1)

没有根据设置进行初始镜像构筑。

-

mdadmn

信息

21

Mirror partition mkfs was executed. (Device:%1)

执行了镜像分区的mkfs。

-

mdadmn

信息

22

Mirror partition mkfs was not executed following the configuration. (Device:%1)

没有根据设置进行镜像分区的mkfs。

-

mdadmn

信息

23

Forced mirror recovery was canceled. Execute the command "clpmdctrl --force" to resume the mirror recovery. (Device:%1)

强制镜像复归被取消。要重新开始镜像复归时,请执行clpmdctrl --force 。

要重新开始镜像复归时,请执行clpmdctrl --force 。

mdadmn

警告

24

One of the servers is active, but NMP size of mirror disks are not the same. (Device:%1)

在某个服务器上是启动状态,但NMP容量不一致。

请将启动的服务器作为镜像复归源服务器,请执行强制镜像复归。

mdadmn

信息

25

The NMP sizes of both servers' disks has been successfully synchronized. (Device:%1)

两台服务器的NMP容量被正常同步。

-

mdadmn

错误

28

Mirror recovery data has been successfully synchronized. NMP size synchronization has failed. (Device:%1)

镜像复归数据的同步成功,但是NMP容量的同步失败。

请重新执行强制镜像复归。

mdadmn

错误

30

The license information was removed after the cluster was started.

License在集群启动时有效,但被删除。

请注册有效License。

mdadmn

错误

31

Failed to isolate the mirror. %1(Device:%2)

%2断开失败。%1中输出以下信息。

Replicator license is invalid or expired.

请注册有效License。

mdadmn

错误

32

Forced activation of the mirror failed. %1 (Device:%2)

%2强行启动失败。%1中可执行输出以下信息。

根据%1中表示的信息,处理会有不同。

Failed to open I/O port.

打开端口失败。请确认集群配置信息。

Mount operation failed.

mount失败。请确认mount point是否存在。另外请确认集群配置信息的mount operation是否正确。

Replicator license is invalid or expired.

请注册有效License。

mdadmn

错误

33

Forced recovery of the mirror failed. %1(Device:%2)

%2的强行复原失败。在%1中可执行输出以下信息。

Replicator license is invalid or expired.

请注册有效License。

mdadmn

信息

34

Isolating the mirror %1 completed successfully.

镜像资源%1断开成功。

-

mdadmn

信息

35

Mirror force active of %1 was completed successfully.

%1强行启动成功。

-

mdadmn

信息

36

Forced recovery of the mirror %1 completed successfully.

%1强行复原成功。

-

mdadmn

错误

37

%1 of %2 failed(ret=%3).

设备%2的命令%1 中返回值为%3失败。

请参考%1 命令的手册。

mdadmn

警告

38

Executing %1 of %2 with %3 option is necessary. Execute the command manually.

需要指定参数%3 执行设备 %2的命令 %1。请手动执行该命令。

请手动指定参数%3执行%1命令。

mdadmn

信息

39

%1 of %2 with %3 option has started.

指定参数%3开始设备%2的命令%1。

-

mdadmn

信息

40

Failed to write to cluster partition of hybrid disk(%1).

对%1集群分区写入失败。

请重启服务器。

mdadmn

信息

41

Timeout in writing to cluster partition of hybrid disk(%1).

对%1的集群分区写入超时。

磁盘可执行处于高负载状态。

请增加[集群属性] - [镜像代理]标签页 - [集群分区I/O超时] 的值。

另外,随着值的增加,请同时增加监视资源(hdw,hdnw)的超时值。

mdadmn

信息

42

Failed to read from cluster partition of hybrid disk(%1).

对%1集群分区读取失败。

请重启服务器。

mdadmn

信息

43

Timeout in reading from cluster partition of hybrid disk(%1).

对%1集群分区读取超时。

请增加[集群属性] - [镜像代理]标签页 - [集群分区I/O超时] 的值。

另外,随着值的增加,请同时增加监视资源(hdw,hdnw)的超时值。

磁盘可执行处于高负载状态。

mdadmn

信息

44

Mirror recovery of %1 was canceled.

%1 的镜像恢复被取消。

-

mdadmn

信息

45

Failed to cancel mirror recovery of %1.

%1 的镜像恢复取消失败。

请再次执行镜像恢复的中断。

mdadmn

错误

46

umount timeout. Make sure that the length of Unmount Timeout is appropriate. (Device:%1)

%1 的镜像的卸载超时。

请确认卸载的超时时间的设置是否充分。

(请参考《开始指南》的"注意限制事项"的"镜像磁盘资源,共享型镜像磁盘资源终止时的注意事项"和"因大量 I/O而导致的缓存增大"。)

mdadmn

错误

47

fsck timeout. Make sure that the length of Fsck Timeout is appropriate. (Device:%1)

%1 的镜像挂载前执行的 fsck 超时。

请确认fsck超时的设置是否充分。

(请参考《开始指南》的"注意限制事项"的"关于执行fsck"。)

mdadmn

错误

54

Update of encryption key of %1 is required.

请更新%1的加密密钥。

请更新加密密钥。

mdagent

信息

1

The Mirror Agent has started successfully.

镜像Agent正常启动。

-

mdagent

错误

2

Failed to start Mirror Agent. %1

镜像Agent的启动失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

Agent is running.

Agent已经启动。

Command clpmdinit is running.

clpmdchng命令已经启动。确认命令结束后,请重启。

IP address in config file is wrong.

请确认集群配置信息。

Server name in config file is wrong.

请确认集群配置信息。

There is an error in config file.

请确认集群配置信息。

Failed to initialize socket server.

可执行是内存不足或OS资源不足。请确认。

Disk error had occured before reboot. Agent will stop starting.

发生磁盘错误。确认镜像对象的磁盘的状态,根据需要参照《维护指南》的"维护信息"的"镜像磁盘的更换步骤"来进行更换。

mdagent

信息

3

The Mirror Agent has stopped successfully.

镜像Agent正常停止。

-

mdagent

错误

4

Failed to stop the Mirror Agent.

镜像Agent的停止失败。

可执行集群未启动,内存不足或OS资源不足。请确认。

在启动状态下,镜像磁盘资源或共享磁盘资源试图停止镜像代理或服务器。

镜像代理或服务器停止时,请使用Cluster WebUI或EXPRESSCLUSTER指令。

在执行命令中,镜像磁盘资源或共享磁盘资源试图停止镜像代理或服务器。

若发生卸载超时,请进行加大设置卸载超时值。

用户要将镜像分区命令给多个挂载点的情况下,在镜像停止之前试图卸载经过添加命令的挂载点。

可执行处于镜像复归中。

镜像复归时,镜像复归结束或者镜像复归中断之后,请停止镜像代理或服务器。

mdagent

警告

5

Failed to load the resource(%1). Check if the Cluster Partition or Data Partition is OK.

无法加载资源%1。

请确认资源 %1的集群分区或数据分区的路径设置正确并没有破损。

mdctrl / hdctrl

错误

1

Failed to activate mirror disk.%1(Device:%2)

%2的启动失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

Failed to open I/O port.

端口的打开失败。请确认集群配置信息。

The local server hasn't the latest data.

自身服务器未保持最新数据。需要进行镜像复归操作。

Communication to the remote server failed.

与对方服务器的通信失败。请确认镜像磁盘连接的连接状态。

The remote server is active.

在对方服务器上启动完毕。请确认镜像磁盘资源的状态。

The local server was already active.

在自身服务器上启动完毕。请确认镜像磁盘资源的状态。

Mount operation failed.

Mount失败。请确认是否存在MountPoint,或集群配置信息的MountOption等是否正确。

NMP size of local server is bigger

自身服务器比对方服务器的NMP容量大。请将对方服务器作为镜像复归源服务器,执行强制镜像复归。

Failed to set writable mode for data partition

请重启要启动资源的服务器。请注意在重启服务器时,可执行发生失效切换。

Replicator license is invalid or expired.

请注册有效的License。

mdctrl / hdctrl

信息

2

fsck of %1 has started.

开始%1的fsck 。

-

mdctrl / hdctrl

信息

3

fsck of %1 was successful.

%1的fsck成功。

-

mdctrl / hdctrl

错误

4

Failed to deactivate mirror disk.%1(Device:%2)

%2 的停止失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

The mirror disk was already deactivated.

已经停止完毕。请确认镜像磁盘资源的状态。

Unmount operation failed.

unmount失败。请确认镜像磁盘资源的文件系统是否处于忙碌状态。

mdctrl / hdctrl

错误

5

Failed to recover mirror.%1(Device:%2)

%2的镜像复归失败。可执行在%1中输出下列消息。

根据显示在%1中的消息的不同处理各异。

The recovery is in progress.

正在镜像复归。确认镜像复归结束后,请重新执行。

The destination server is active.

复制目标服务器上的镜像磁盘资源启动完毕。请确认镜像磁盘资源的状态。

Can not judge the recovery direction.

无法限定镜像复归方向。需要进行强制镜像复归操作。

The source server is abnormal.

复制目标服务器的状态异常。请确认镜像Agent的状态。

NMP size of recovery destination is smaller.

请将对方服务器作为镜像复归来源,执行强制镜像复归。或者,将镜像复归目标磁盘更换为容量充足的磁盘,或用fdisk命令确保容量充足的数据分区。

Replicator license is invalid or expired.

请注册有效的License。

mdctrl / hdctrl

信息

7

Mirror recovery mode is %1.(Device:%2)

%1为 "NORMAL" 时,为全面镜像复归(Full Copy)。

%1 为"FAST" 时,为差异镜像复归。

镜像复归模式为%1 。

-

mdctrl / hdctrl

信息

16

Initial mirror recovery of %1 has started.

开始%1的初始镜像构筑。

-

mdctrl / hdctrl

信息

17

Mirror recovery of %1 has started.

开始%1的镜像复归。

-

mdctrl / hdctrl

信息

18

Initial mirror recovery of %1 was successful.

%1的初始镜像构筑成功。

-

mdctrl / hdctrl

错误

19

Failed to recover mirror.%1(Device:%2)

%2的初始镜像构筑失败。可执行在%1中输出下列消息。

其处理根据%1中显示的消息的不同而有所不同

The recovery is in progress.

正在镜像复归。确认镜像复归结束后,请重新执行。

The destination server is active.

复制目标服务器上的资源启动完毕。请确认镜像磁盘资源的状态。

Can not judge the recovery direction.

无法限定镜像复归方向。需要进行强制镜像复归操作。

The source server is abnormal.

复制源服务器的状态异常。请确认镜像Agent的状态。

mdctrl / hdctrl

信息

20

Initial mirror recovery was not executed following the configuration. (Device:%1)

没有根据设置进行初始镜像构筑。

-

mdctrl / hdctrl

错误

31

Failed to isolate the mirror. %1(Device:%2)

%2断开失败。可执行在%1中输出以下信息。

Replicator license is invalid or expired.

请注册有效License。

mdctrl / hdctrl

错误

32

Forced activation of the mirror failed. %1 (Device:%2)

%2的强行启动失败。可执行在%1中输出以下信息。

根据%1中表示的信息,处理会有不同。

Failed to open I/O port.

打开端口失败。请确认集群配置信息。

Mount operation failed.

mount失败。请确认mount point是否存在。另外请确认集群配置信息的Mount operation是否正确。

Replicator license is invalid or expired.

请注册有效License。

mdctrl / hdctrl

错误

33

Forced recovery of the mirror failed. %1(Device:%2)

%2的强行复原失败。可执行在%1中输出以下信息。

Replicator license is invalid or expired.

请注册有效License。

mdctrl / hdctrl

信息

34

Isolating the mirror %1 completed successfully.

镜像资源%1断开成功。

-

mdctrl

信息

35

Mirror force active of %1 was completed successfully.

%1强行启动成功。

-

mdctrl / hdctrl

信息

36

Forced recovery of the mirror %1 completed successfully.

%1强行复原成功。

-

mdctrl / hdctrl

错误

37

%1 of %2 failed(ret=%3).

设备%2的命令%1 中返回值为%3失败。

请参考%1 命令的手册。

mdctrl / hdctrl

警告

38

Executing %1 of %2 with %3 option is necessary. Execute the command manually.

需要指定参数%3 执行设备 %2的命令 %1。请手动执行该命令。

请手动指定参数%3执行%1命令。

mdctrl / hdctrl

信息

39

%1 of %2 with %3 option has started.

指定参数%3开始设备%2的命令%1。

-

mdctrl / hdctrl

信息

44

Mirror recovery of %1 was canceled.

%1 的镜像恢复被取消。

-

mdctrl / hdctrl

信息

45

Failed to cancel mirror recovery of %1.

%1 的镜像恢复取消失败。

请再次执行镜像恢复的中断。

mdctrl / hdctrl

错误

46

umount timeout. Make sure that the length of Unmount Timeout is appropriate. (Device:%1)

%1 的镜像的卸载超时。

请确认卸载的超时时间的设置是否充分。

(请参考《开始指南》的"注意限制事项"的"镜像磁盘资源,共享型镜像磁盘资源结终止时的注意事项"和"因大量 I/O而导致的缓存增大"。)

mdctrl / hdctrl

错误

47

fsck timeout. Make sure that the length of Fsck Timeout is appropriate. (Device:%1)

%1 的镜像挂载前执行的 fsck 超时。

请确认fsck超时的设置是否充分。

(请参考《开始指南》的"注意限制事项"的"关于执行fsck"。)

mdctrl / hdctrl

信息

50

Extension of mirror disk %1 was succeessful.

%1 的镜像磁盘资源的数据分区扩展成功。

mdctrl / hdctrl

错误

51

Failed to extend mirror disk %1.

%1 的镜像磁盘资源的数据分区扩展失败。

请确认数据分区以LVM构成。
请确认卷组的未使用PE量充足。

mdctrl / hdctrl

信息

52

Update of encryption key of %1 was successful.

已成功更新%1的加密密钥。

-

mdctrl / hdctrl

错误

53

Failed to update encryption key of %1.

%1的加密密钥更新失败。

请在各服务器上,检查密钥文件是否存在于设置的密钥文件完整路径中。

mdctrl / hdctrl

错误

54

Update of encryption key of %1 is required.

请更新%1的加密密钥。

请更新加密密钥。

mdinit / hdinit

信息

21

Mirror partition mkfs was executed. (Device:%1)

执行了镜像分区的mkfs。

-

mdinit / hdinit

信息

22

Mirror partition mkfs was not executed following the configuration. (Device:%1)

按照设置,未执行镜像分区的mkfs。

-

mdw / hdw

错误

5

Failed to recover the mirror.%1(Device:%2)

%2的镜像复归失败。可执行在%1中输出下列消息。

其处理根据%1中显示的消息的不同而有所不同

The recovery is in progress.

想要开始自动镜像复归,但镜像复归已经开始。

The destination server is active.

复制目标服务器上的镜像磁盘资源启动完毕。请确认镜像磁盘资源的状态。

Cannot determine the mirror recovery direction.

无法限定镜像复归方向。需要进行强制镜像复归操作。

The source server is abnormal.

复制源服务器的状态异常。请确认镜像Agent的状态。

NMP size of recovery destination is smaller.

请将对方服务器作为镜像复归来源,执行强制镜像复归。或者,将镜像复归目标磁盘更换为容量充足的磁盘,或用fdisk命令确保容量充足的数据分区。

Replicator license is invalid or expired.

请注册有效的License。

mdw / hdw

信息

7

Mirror recovery mode is %1.(Device:%2)

镜像复归模式为%1 。

%1为 "NORMAL" 时,为全面镜像复归(Full Copy)。

%1 为"FAST" 时,为差异镜像复归。

-

mdw / hdw

信息

16

Initial mirror recovery of %1 has started.

开始%1的初始镜像构筑。

-

mdw / hdw

信息

17

Mirror recovery of %1 has started.

开始%1的镜像复归。

-

mdw / hdw

信息

18

Initial mirror recovery of %1 was successful.

%1的初始镜像构筑成功。

-

mdw / hdw

错误

19

Failed to perform initial mirror recovery.%1(Device:%2)

%2的初始镜像构筑失败。可执行在%1中输出下列消息。

其处理根据%1中显示的消息的不同而有所不同

The recovery is in progress.

正在镜像复归。确认镜像复归的结束后,请重新执行。

The destination server is active.

复制目标服务器上的资源启动完毕。请确认镜像磁盘资源的状态。

Cannot determine the mirror recovery direction.

无法限定镜像复归方向。需要进行强制镜像复归操作。

The source server is abnormal.

复制源服务器的状态异常。请确认镜像Agent的状态。

mdw / hdw

信息

20

Initial mirror recovery was not executed following the configuration. (Device:%1)

没有根据设置进行初始镜像构筑。

-

mdw / hdw

错误

54

Update of encryption key of %1 is required.

请更新%1的加密密钥。

请更新加密密钥。

fip

错误

10

IP address %1 already exists on the network.

IP地址%1在网络上存在。

请确认IP地址是否已经在网络上被使用。

fip

信息

11

IP address %1 will be forcefully activated.

强行启动IP地址%1 。

-

vip

错误

10

IP address %1 already exists on the network.

IP地址%1在网络上存在。

请确认IP地址是否已经在网络上被使用。

vip

信息

11

IP address %1 will be forcefully activated.

强行启动IP地址%1 。

-

disk

信息

10

%1 of %2 has started.

开始设备%2的命令%1。

-

disk

信息

11

%1 of %2 was successful.

设备%2的命令%1成功。

-

disk

错误

12

%1 of %2 failed (ret=%3).

设备%2的命令%1 中返回值为%3失败。

请参考%1 命令的手册。

disk

警告

13

Executing %1 of %2 with %3 option is necessary. Execute the command manually.

需要指定参数%3 执行设备 %2的命令 %1。请手动执行该命令。

请手动指定参数%3执行%1命令。

disk

信息

14

%1 of %2 with %3 option has started.

指定参数%3开始设备%2的命令%1。

-

disk

错误

15

Timeout occurred during %1 of %2.

设备%2的命令%1发生超时。

确认命令%1发生超时的原因,执行对应处理。

disk

警告

16

Executing xfs_repair of %1 is necessary. Execute the command manually.

需要执行xfs_repair命令。请手动执行命令。

请执行xfs_repair命令。

disk

警告

17

Setting of Disktype=%1 and Filesystem=%2 can't be combined.

磁盘类型%1和文件系统%2不能组合在一起使用。

请修改设置。

cl

信息

1

There was a request to start %1 from the %2.

出现从%2发出的启动%1的请求。

-

cl

信息

2

There was a request to stop %1 from the %2.

出现从%2发出的停止%1的请求。

-

cl

信息

3

There was a request to suspend %1 from the %2.

出现从%2发出的挂起%1的请求。

-

cl

信息

4

There was a request to resume %s from the %s.

出现从%2发出的复原%1的请求。

-

cl

错误

11

A request to start %1 failed(%2).

%1的启动请求失败。

请确认集群的状态。

cl

错误

12

A request to stop %1 failed(%2).

%1的停止请求失败。

请确认集群的状态。

cl

错误

13

A request to suspend %1 failed(%2).

%1的挂起请求失败。

请确认集群的状态。

cl

错误

14

A request to resume %1 failed(%2).

%1的复原请求失败。

请确认集群的状态。

cl

错误

15

A request to %1 cluster failed on some servers(%2).

集群的%1请求在某些服务器上失败。

请确认集群的状态。

cl

错误

16

A request to start %1 failed on some servers(%2).

某些服务器中%1的启动失败。

请确认%1的状态。

cl

错误

17

A request to stop %1 failed on some servers(%2).

某些服务器中%1的停止失败。

请确认%1的状态。

cl

警告

18

Automatic start is suspended because the cluster service was not stopped according to the normal procedure.

由于没有设置了"关机后自动启动",因此中止了自动启动。

为启动集群服务,请通过Cluster WebUI或使用clpcl命令启动集群服务。

cl

警告

20

A request to start %1 failed because cluster is running(%2).

由于集群已经启动,%1启动失败。

请确认集群状态。

cl

警告

21

A request to stop %1 failed because cluster is running(%2).

由于集群已经启动, %1停止失败。

请确认集群状态。

mail

错误

1

The license is not registered. (%1)

请购买并注册License。

-

mail

错误

2

The trial license has expired in %1. (%2)

请注册有效License。

-

mail

错误

3

The registered license is invalid. (%1)

请注册有效License。

-

mail

错误

4

The registered license is unknown. (%1)

请注册有效License。

-

mail

错误

5

mail failed(%s).(SMTP server: %s)

邮件通报失败。

请确认是否发生了SMTP服务器错误,或与SMTP服务器的通信是否出现问题。

mail

信息

6

mail successed.(SMTP server: %s)

邮件通报成功。

-

down

信息

1

There was a request to shutdown %1 from the %2.

从%2到%1的关机请求。

-

down

信息

2

There was a request to reboot %1 from the %2.

从%2到%1的重启请求。

-

down

错误

11

A request to shutdown %1 failed(%2).

%1的关机请求失败。

请确认服务器的状态。

down

错误

12

A request to reboot %1 failed(%2).

%1的重启要求失败。

请确认服务器的状态。

userw

警告

1

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

通过%1的监视查出监视延迟。当前的超时值为%2(秒) x %3(1秒左右的tick count)。查出延迟时的实测值为 %4(tick count),超出延迟警告比例 %5(%)。

确认查出监视延迟的服务器的负载状况,减低负载。

如果查出监视超时,则有必要延长监视的超时。

vipw

警告

1

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

通过%1的监视查出监视延迟。当前的超时值为%2(秒) x %3(1秒左右的tick count)。查出延迟时的实测值为 %4(tick count),超出延迟警告比例 %5(%)。

确认查出监视延迟的服务器的负载状况,减低负载。

如果查出监视超时,则有必要延长监视的超时。

ddnsw

警告

1

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

通过%1的监视查出监视延迟。当前的超时值为 %2(秒) x %3(每秒的tick count)。延迟检测时的实测值为 %4(tick count),超出了延迟警告比率%5(%)。

确认查出监视延迟的服务器的负载状况,减低负载。

如果查出监视超时,则有必要延长监视的超时。

vmw

警告

1

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

通过%1的监视查出监视延迟。当前的超时值为 %2(秒) x %3(每秒的tick count)。延迟检测时的实测值为 %4(tick count),超出了延迟警告比率%5(%)。

确认查出监视延迟的服务器的负载状况,减低负载。

如果查出监视超时,则有必要延长监视的超时。

bmcw

警告

1

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

通过%1的监视查出监视延迟。当前的超时值为 %2(秒) x %3(每秒的tick count)。延迟检测时的实测值为 %4(tick count),超出了延迟警告比率%5(%)。

确认查出监视延迟的服务器的负载状况,减低负载。

如果查出监视超时,则有必要延长监视的超时。

apisv

信息

1

There was a request to stop cluster from the %1(IP=%2).

%1要求集群停止。

-

apisv

信息

2

There was a request to shutdown cluster from the %1(IP=%2).

%1要求集群关机。

-

apisv

信息

3

There was a request to reboot cluster from the %1(IP=%2).

%1要求集群重启。

-

apisv

信息

4

There was a request to suspend cluster from the %1(IP=%2).

%1要求集群挂机。

-

apisv

信息

10

There was a request to stop server from the %1(IP=%2).

%1要求服务器停止。

-

apisv

信息

11

There was a request to shutdown server from the %1(IP=%2).

%1要求服务器关机。

-

apisv

信息

12

There was a request to reboot server from the %1(IP=%2).

%1要求服务器重启。

-

apisv

信息

13

There was a request to server panic from the %1(IP=%2).

%1要求服务器panic。

-

apisv

信息

14

There was a request to server reset from the %1(IP=%2).

%1要求服务器重置。

-

apisv

信息

15

There was a request to server sysrq from the %1(IP=%2).

%1要求SYSRQ Panic。

-

apisv

信息

16

There was a request to KA RESET from the %1(IP=%2).

%1要求keepalive重置。

-

apisv

信息

17

There was a request to KA PANIC from the %1(IP=%2).

%1要求keepalive Panic。

-

apisv

信息

18

There was a request to BMC reset from the %1(IP=%2).

%1要求BMC重置。

-

apisv

信息

19

There was a request to BMC PowerOff from the %1(IP=%2).

%1要求BMC断电。

-

apisv

信息

20

There was a request to BMC PowerCycle from the %1(IP=%2).

%1要求BMCPower cycle。

-

apisv

信息

21

There was a request to BMC NMI from the %1(IP=%2).

%1要求BMC NMI。

-

apisv

信息

22

There was a request to IO Fencing from the %1(IP=%2).

%1要求IO Fencing。

-

apisv

信息

30

There was a request to start group(%1) from the %2(IP=%3).

%2要求组%1的启动。

-

apisv

信息

31

There was a request to start all groups from the %1(IP=%2).

%1要求所有组的启动。

-

apisv

信息

32

There was a request to stop group(%1) from the %2(IP=%3).

%2要求组%1的停止。

-

apisv

信息

33

There was a request to stop all groups from the %1(IP=%2).

%1要求所有组的停止。

-

apisv

信息

34

There was a request to restart group(%1) from the %2(IP=%3).

%2要求组%1的重启。

-

apisv

信息

35

There was a request to restart all groups from the %1(IP=%2).

%1要求所有组的重启。

-

apisv

信息

36

There was a request to move group(%1) from the %2(IP=%3).

%2要求组%1的移动。

-

apisv

信息

37

There was a request to move all groups from the %1(IP=%2).

%1要求组的移动。

-

apisv

信息

38

There was a request to failover group(%1) from the %2(IP=%3).

%2要求组%1的失效切换。

-

apisv

信息

39

There was a request to failover all groups from the %1(IP=%2).

%1要求组的失效切换。

-

apisv

信息

40

There was a request to migrate group(%1) from the %2(IP=%3)

有来自%2的组%1的移动请求。

-

apisv

信息

41

There was a request to migrate all groups from the %1(IP=%2).

有来自%2的所有组移动请求。

-

apisv

信息

42

There was a request to failover all groups from the %1(IP=%2).

有来自%2的组失效切换请求。

-

apisv

信息

43

There was a request to cancel waiting for the dependence destination group of group the %1 was issued from %2.

%2要求取消组%1的依存目标组等待处理。

-

apisv

信息

50

There was a request to start resource(%1) from the %2(IP=%3).

%2要求资源%1的启动。

-

apisv

信息

51

There was a request to start all resources from the %1(IP=%2).

%1要求所有资源的启动。

-

apisv

信息

52

There was a request to stop resource(%1) from the %2(IP=%3).

%2要求资源%1的停止。

-

apisv

信息

53

There was a request to stop all resources from the %1(IP=%2).

%1要求所有资源的停止。

-

apisv

信息

54

There was a request to restart resource(%1) from the %2(IP=%3).

%2要求资源%1的重启。

-

apisv

信息

55

There was a request to restart all resources from the %1(IP=%2).

%1要求所有资源的重启。

-

apisv

信息

60

There was a request to suspend monitor resources from the %1(IP=%2).

出现从%1发出的监视资源挂起请求。

-

apisv

信息

61

There was a request to resume monitor resources from the %1(IP=%2).

出现从%1发出的监视资源复原请求。

-

apisv

信息

62

There was a request to enable Dummy Failure of monitor resource(%1) from the %2(IP=%3).

从%2发出监视资源%1模拟故障的开始请求。

-

apisv

信息

63

There was a request to disable Dummy Failure of monitor resource(%1) from the %2(IP=%3).

从%2发出监视资源%1模拟故障的停止请求。

-

apisv

信息

64

There was a request to disable Dummy Failure of all monitor resources from the %1(IP=%2).

从%1发出所有监视资源模拟故障的停止请求。

-

apisv

信息

70

There was a request to set CPU frequency from the %1(IP=%2).

出现从%1发出的CPU频率设置请求。

-

apisv

错误

101

A request to stop cluster was failed(0x%08x).

集群停止失败。

请确认集群的状态。

apisv

错误

102

A request to shutdown cluster was failed(0x%08x).

集群关机失败。

请确认集群的状态。

apisv

错误

103

A request to reboot cluster was failed(0x%08x).

集群重启失败。

请确认集群的状态。

apisv

错误

104

A request to suspend cluster was failed(0x%08x).

集群挂机失败。

请确认集群的状态。

apisv

错误

110

A request to stop server was failed(0x%08x).

服务器停止失败。

请确认服务器的状态。

apisv

错误

111

A request to shutdown server was failed(0x%08x).

服务器关机失败。

请确认服务器的状态。

apisv

错误

112

A request to reboot server was failed(0x%08x).

服务器重启失败。

请确认服务器的状态。

apisv

错误

113

A request to server panic was failed(0x%08x).

服务器Panic失败。

请确认服务器状态。

apisv

错误

114

A request to server reset was failed(0x%08x).

服务器重置失败。

请确认服务器状态。

apisv

错误

115

A request to server sysrq was failed(0x%08x).

SYSRQPanic失败。

请确认服务器状态。

apisv

错误

116

A request to KA RESET was failed(0x%08x).

Keepalive重置失败。

请确认服务器状态。

apisv

错误

117

A request to KA PANIC was failed(0x%08x).

Keepalive Panic失败。

请确认服务器状态。

apisv

错误

118

A request to BMC RESET was failed(0x%08x).

BMC重置失败。

请确认服务器状态。

apisv

错误

119

A request to BMC PowerOff was failed(0x%08x).

BMC关闭电源失败。

请确认服务器状态。

apisv

错误

120

A request to BMC PowerCycle was failed(0x%08x).

BMC 电源循环失败。

请确认服务器状态。

apisv

错误

121

A request to BMC NMI was failed(0x%08x).

BMC NMI失败。

请确认服务器状态。

apisv

错误

122

A request to IO Fencing was failed(0x%08x).

IO Fencing失败。

请确认服务器状态。

apisv

错误

130

A request to start group(%1) was failed(0x%08x).

组(%1)的启动失败。

请根据rc将输出的组启动失败的消息,进行相应处理。

apisv

错误

131

A request to start all groups was failed(0x%08x).

全组的启动失败。

同上

apisv

错误

132

A request to stop group(%1) was failed(0x%08x).

组(%1)的停止失败。

请根据rc输出的组停止失败消息,进行相应处理。

apisv

错误

133

A request to stop all groups was failed(0x%08x).

全组的停止失败。

同上

apisv

错误

134

A request to restart group(%1) was failed(0x%08x).

组(%1)的重启失败。

请根据rc输出的组停止失败的错误消息采取对策。

apisv

错误

135

A request to restart all groups was failed(0x%08x).

全组重启失败。

同上

apisv

错误

136

A request to move group(%1) was failed(0x%08x).

组(%1)的移动失败。

请根据rc输出的组移动失败消息,进行相应处理。

apisv

错误

137

A request to move all groups was failed(0x%08x).

所有组的移动失败。

同上

apisv

错误

138

A request to failover group(%1) was failed(0x%08x).

组(%1)的失效切换失败。

请根据rc输出的组失效切换失败消息,进行相应处理。

apisv

错误

139

A request to failover all groups was failed(0x%08x).

所有组失效切换失败。

请根据rc输出的组失效切换失败消息,进行相应处理。

apisv

错误

140

A request to migrate group(%1) was failed(0x%08x).

组(%1)的移动失败。

请根据rc输出的组失效切换失败的错误消息采取对策。

apisv

错误

141

A request to migrate all groups was failed(0x%08x).

所有组的移动失败。

同上

apisv

错误

142

A request to failover all groups was failed(0x%08x).

所有组的失效切换失败。

同上

apisv

错误

143

A request to cancel waiting for the dependency destination group of group %1 has failed(0x%08x).

取消组%1的依存目标组等待处理失败。

同上

apisv

错误

150

A request to start resource(%1) was failed(0x%08x).

资源(%1)的启动失败。

请根据rc输出的资源启动失败消息,进行相应处理。

apisv

错误

151

A request to start all resources was failed(0x%08x).

所有资源启动失败。

同上

apisv

错误

152

A request to stop resource(%1) was failed(0x%08x).

资源(%1)的停止失败。

请根据rc输出的资源停止失败消息,进行相应处理。

apisv

错误

153

A request to stop all resources was failed(0x%08x).

所有资源停止失败。

同上

apisv

错误

154

A request to restart resource(%1) was failed(0x%08x).

资源(%1)的重启动失败

请根据rc输出的资源重启失败消息,进行相应处理。

apisv

错误

155

A request to restart all resources was failed(0x%08x).

所有资源重启失败。

请根据rc输出的资源重启失败消息,进行相应处理。

apisv

错误

160

A request to suspend monitor resource was failed(0x%08x).

监视资源的挂起失败。

请确认监视资源的状态。

apisv

错误

161

A request to resume monitor resource was failed(0x%08x).

监视资源的复原失败。

同上

apisv

错误

162

A request to enable Dummy Failure of monitor resource(%1) was failed(0x%08x).

开始监视资源%1的模拟故障失败。

请确认监视资源的状态。

apisv

错误

163

A request to disable Dummy Failure of monitor resource(%1) was failed(0x%08x).

结束监视资源%1的模拟故障失败。

同上

apisv

错误

164

A request to disable Dummy Failure of all monitor resources was failed(0x%08x).

所有监视资源的模拟故障停止失败。

同上

apisv

错误

170

A request to set CPU frequency was failed(0x%08x).

CPU频率级别设置失败。

请根据rc输出的CPU频率级别设置失败消息,进行相应处理。

lamp

错误

1

The license is not registered. (%1)

没有登录license。

请购买license并登录。

lamp

错误

2

The trial license has expired in %1. (%2)

试用版license有效期已过。

请登录有效的license。

lamp

错误

3

The registered license is invalid. (%1)

登录的license无效。

请登录有效的license。

lamp

错误

4

The registered license is unknown. (%1)

登录license状态不明。

请登录有效的license。

lamp

信息

5

Notice by the network warming light succeeded.

网络警报灯通报成功。

-

lamp

错误

6

Error in executing result of warning light command.(%d)

网络警报灯通报命令出现异常。

请根据错误代码进行处理。

lamp

错误

7

Failed to execute warning light command.(%d)

网络警报灯通报命令不能执行。

可执行是因为内存不足或OS资源不足。请进行确认。

cfmgr

信息

1

The cluster configuration data has been uploaded by %1.

已上传集群配置信息。

-

sra

错误

1

system monitor closed because reading the SG file failed.

在SG文件的读入处理中发生异常。

请确认另外输出的消息。

sra

错误

2

Opening an ignore file failed. file name = %1, errno = %2.

%1:文件名

%2:errno

无法打开SG文件(%1)。

请重启集群或执行挂起/复原。

sra

错误

3

Reading a configuration file failed.

在SG文件的读入处理中发生异常。

请确认另外输出的消息。

sra

错误

4

Trace log initialization failed.

内部日志文件初始化失败。

请重启集群或执行挂起/复原。

sra

错误

5

Creating a daemon process failed.

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

错误

6

Reading a service configuration file failed.

在SG文件的读入处理中发生异常。

请确认另外输出的消息。

sra

错误

7

mlock() failed.

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

错误

8

A daemon process could not be created.

SystemResourceAgent启动(进程的Daemon化)失败。

内存不足或者OS资源不足。请确认。

sra

错误

9

stdio and stderr could not be closed.

SystemResourceAgent启动(关闭标准输入,输出)失败。

内存不足或者OS资源不足。请确认。

sra

错误

10

A signal mask could not be set up.

SystemResourceAgent启动(信号掩码的设置)失败。

内存不足或者OS资源不足。请确认。

sra

错误

11

A configuration file error occurred. (1) [line = %1, %2]

%1:行

%2:设定值

SystemResourceAgent启动(SG文件的读入)失败。

请重启集群或执行挂起/复原。

sra

错误

12

A configuration file error occurred. (2) [line=%1, %2]

%1:行

%2:设定值

SystemResourceAgent启动(SG文件的读入)失败。

请重启集群或执行挂起/复原。

sra

错误

13

A plugin event configuration file error occurred. The DLL pointer was not found. [line = %1, %2]

%1:行

%2:设定值

SystemResourceAgent启动(登录插件事件)失败。

请重启集群或执行挂起/复原。

sra

错误

14

malloc failed. [event structure]

SystemResourceAgent启动(登录插件事件)失败。

请重启集群或执行挂起/复原。

sra

错误

15

A service configuration file error occurred due to an invalid event. [%1]

%1: 设定值

SystemResourceAgent启动(服务文件的读入)失败。

请重启集群或执行挂起/复原。

sra

错误

16

A plugin event configuration file

error occurred due to %1.

%1:错误原因

SystemResourceAgent的启动(插件事件文件的读入)失败。

请重启集群或执行挂起/复原。

sra

错误

17

Internal error occurred.

发生共享内存访问错误。

-

sra

警告

101

Opening an SG file failed. file name = %1, errno = %2

%1:文件名

%2:errno

无法打开SG文件(%1)。

请重新创建SG文件,并重启集群或执行挂起/复原。

sra

警告

102

malloc(3) fail(1) . [%1]

%1:函数名

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

103

malloc(3) fail(2). [%1]

%1:函数名

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

104

An internal error occurred. rename(2) error (errno = %1)

%1:errno

本产品异常结束。

请参考之前输出的系统日志消息。

sra

警告

105

realloc(3) fail. [%1].

%1:函数名

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

106

A script timed out. (%1 %2)

%1:脚本文件名

%2:参数

发生内部错误。

请确认服务器的负载情况并清除负载。

sra

警告

107

[%1] execvp(2) fail (%2).

%1:脚本名

%2:errno

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

108

[%1] fork fail (%2). Suspended.

%1:脚本名

%2:errno

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

警告

109

malloc(3) fail. [%1]

%1:函数名

发生内部错误。

内存不足或者OS资源不足。请确认。

sra

信息

201

A script was executed. (%1)

%1:脚本名

执行了脚本(%1)。

-

sra

信息

202

Running a script finished. (%1)

%1:脚本名

脚本正常终止。

-

sra

信息

203

An %1 event succeeded.

%1:执行的事件类型

执行了操作管理命令。

%1输出执行的事件类型(boot,shutdown,stop,start,flush)。

-

sra

错误

301

A process resource error was detected. (%1, type = cpu, pid = %2, %3)

%1:监视资源名

%2:进程ID

%3:进程名

特定进程的CPU使用率监视中查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = memory leak, pid = %2, %3)

%1:监视资源名

%2:进程ID

%3:进程名

特定进程的内存使用量监视中查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = file leak, pid = %2, %3)

%1:监视资源名

%2:进程ID

%3:进程名

特定进程的打开文件数(最大值)监视中查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = open file, pid = %2, %3)

%1:监视资源名

%2:进程ID

%3:进程名

特定进程的打开文件数(内核上限值)监视中查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = thread leak, pid = %2, %3)

%1:监视资源名

%2:进程ID

%3:进程名

特定进程的线程数监视中查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = defunct, pid = %2, %3)

%1:监视资源名

%2:进程ID

%3:进程名

僵死进程监视中查出异常。

请确认监视异常的原因。

sra

错误

301

A process resource error was detected. (%1, type = same name process, pid = %2, %3)

%1:监视资源名

%2:进程ID

%3:进程名

同一名称进程监视中查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = cpu)

%1:监视资源名

系统的CPU使用率监视中查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = memory)

%1:监视资源名

系统的总内存使用量监视中查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = swap)

%1:监视资源名

系统的总虚拟内存使用量监视中查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = file)

%1:监视资源名

系统的总打开文件数监视中查出异常。

请确认监视异常的原因。

sra

错误

302

A system resource error was detected. (%1, type = thread)

%1:监视资源名

系统的总线程数监视中查出异常。

请确认监视异常的原因。

sra

错误

303

A system resource error was detected. (%1, type = number of process, user name = %2)

%1:监视资源名

%2:用户名

系统的每个用户的启动进程数监视中查出异常。

请确认监视异常的原因。

sra

错误

304

A disk resource error was detected. (%1, type = used rate, level = NOTICE, %2)

%1:监视资源名

%2:mount point

磁盘使用率监视中查出通知级别的异常。

请确认监视异常的原因。

sra

错误

304

A disk resource error was detected. (%1, type = used rate, level = WARNING, %2)

%1:监视资源名

%2:mount point

磁盘使用率监视中查出警告级别的异常。

请确认监视异常的原因。

sra

错误

304

A disk resource error was detected. (%1, type = free space, level = NOTICE, %2)

%1:监视资源名

%2:mount point

磁盘空余容量监视中查出通知级别的异常。

请确认监视异常的原因。

sra

错误

304

A disk resource error was detected. (%1, type = free space, level = WARNING, %2)

%1:监视资源名

%2:mount point

磁盘空余容量监视中查出警告级别的异常。

请确认监视异常的原因。

sra

警告

401

zip/unzip package is not installed.

System Resource Agent收集的统计信息压缩失败。

请确认系统中是否已安装zip或者unzip的包。

lcns

信息

1

The number of licenses is %1. (Product name:%2)

集群的License数为%1。

%1:License数

%2:产品名

-

lcns

信息

2

The trial license is valid until %1. (Product name:%2)

试用版License的有效期到%1为止。

%1:试用结束日期

%2:产品名

-

lcns

警告

3

The number of licenses is insufficient. The number of insufficient licenses is %1. (Product name:%2)

License不足。License不足的数为%1。

%1:不足License数

%2:产品名

请购买不够的部分,进行注册。

lcns

错误

4

The license is not registered. (Product name:%1)

尚未注册License。

%1:产品名

请购买License并进行注册。

lcns

错误

5

The trial license has expired in %1. (Product name:%2)

试用版License已经过期。

%1:试用结束日期

%2:产品名

请注册有效的License。

lcns

错误

6

The registered license is invalid. (Product name:%1, Serial No:%2)

注册的License无效。

%1:产品名

%2:序列号

请注册有效的License。

lcns

错误

7

The registered license is unknown. (Product name:%1)

注册的License状态不明。

%1:产品名

请注册有效的License。

lcns

错误

8

The trial license is valid from %1. (Product name:%2)

试用版License尚未到生效期。

%1:试用开始日期

%2:产品名

请注册有效的License。

lcns

信息

9

The fixed term license is valid until %1. (Product name:%2)

期间定制License的有效期到%1为止。

%1:有效期结束日期

%2:产品名

-

lcns

错误

10

The fixed term license has expired in %1. (Product name:%2)

期间定制License已经过期。

%1:有效期结束日期

%2:产品名

请注册有效的License。

webmgr

警告

21

HTTPS configuration isn't correct, HTTPS mode doesn't work. Please access WebManager by HTTP mode.

由于HTTPS的设置不正确,因此无法使用WebManager。请用HTTP连接WebManager。

-

logcmd

错误

3601

[1] gcdns: Failed to obtain the setting value in the activation process.

Google Cloud DNS 资源的启动处理中获取设定值失败。

请确认Google Cloud DNS 资源的设置。

[2] gcdns: Failed to obtain the record set in the activation process.

Google Cloud DNS 资源的启动处理中,获取Cloud DNS 记录集失败。

请确认Google Cloud DNS 资源的设定值,Cloud SDK授权帐户的权限。

[3] gcdns: Failed to start the transaction in the activation process.

Google Cloud DNS 资源的启动处理中,无法启动事件。

请确认Cloud SDK的授权帐户的权限。

[4] gcdns: Failed to delete the record set in the activation process.

Google Cloud DNS 资源的启动处理中,无法将记录集删除过程添加到事件中。

请确认Cloud SDK的授权帐户的权限。

[5] gcdns: Failed to add the record set in the activation process.

Google Cloud DNS 资源的启动处理中,无法将记录集添加过程添加到事件中。

请确认Cloud SDK的授权帐户的权限。

[6] gcdns: Failed to execute the transaction in the activation process.

Google Cloud DNS 资源的启动处理中,执行事件失败。

请确认Cloud SDK的授权帐户的权限。

[1] gcdns: Failed to obtain the setting value in the deactivation process.

Google Cloud DNS 资源的停止处理中,获取设定值失败。

请确认Google Cloud DNS 资源的设置。

[2] gcdns: Failed to obtain the record set in the deactivation process.

Google Cloud DNS 资源的停止处理中,获取Cloud DNS 的记录集失败。

请确认Google Cloud DNS 资源的设定值,Cloud SDK授权帐户的权限。

[3] gcdns: Detected an invalid parameter in the deactivation process.

Google Cloud DNS 资源的停止处理中,发生内部错误。

-

[4] gcdns: Failed to start the transaction in the deactivation process.

Google Cloud DNS 资源的启动处理中,无法启动事件。

请确认Cloud SDK的授权帐户的权限。

[5] gcdns: Failed to delete the record set in the deactivation process.

Google Cloud DNS 资源的启动处理中,无法将记录集删除过程添加到事件中。

请确认Cloud SDK的授权帐户的权限。

[6] gcdns: Failed to execute the transaction in the deactivation process.

Google Cloud DNS 资源的启动处理中,执行事件失败。

请确认Cloud SDK的授权帐户的权限。

[1] gcdnsw: Failed to obtain the setting value.

Google Cloud DNS 监视资源的监视处理中,获取设定值失败。

请确认Google Cloud DNS 监视资源的设置。

[2] gcdnsw: Failed to obtain the zone name.

Google Cloud DNS 监视资源的监视处理中,获取启动时监视对象资源的设定值失败。

请确认Google Cloud DNS监视资源以及Google Cloud DNS 资源的设置。

[3] gcdnsw: Failed to obtain the DNS name.

Google Cloud DNS 监视资源的监视处理中,获取启动时监视对象资源的设定值失败。

请确认Google Cloud DNS 监视资源以及Google Cloud DNS 资源的设置。

[4] gcdnsw: Failed to obtain the record type.

Google Cloud DNS 监视资源的监视处理中,获取启动时监视对象资源的设定值失败。

请确认Google Cloud DNS 监视资源以及Google Cloud DNS 资源的设置。

[5] gcdnsw: Failed to obtain the TTL.

Google Cloud DNS 监视资源的监视处理中,获取Cloud DNS 记录集失败。

请确认Google Cloud DNS 监视资源的设定值,Cloud SDK授权帐户的权限。

[6] gcdnsw: Failed to obtain the IP address.

Google Cloud DNS 监视资源的监视处理中,获取Cloud DNS 记录集失败。

请确认Google Cloud DNS 监视资源的设定值,Cloud SDK授权帐户的权限。

[7] gcdnsw: Failed to obtain the record set.

Google Cloud DNS 监视资源的监视处理中,获取Cloud DNS 记录集失败。

请确认Google Cloud DNS 监视资源的设定值,Cloud SDK授权帐户的权限。

[8] gcdnsw: No record set to be monitored. (%1)

Google Cloud DNS 监视资源中查出监视异常。

%1:错误原因

-

1(1,2,3,4)

有关故障部位的详情,请参考各设备的维护指南,"附录"章节中所记载的"ExpessCluster故障部位编码一览表"

10.3. 驱动程序syslog消息

该版本的EXPRESSCLUSTER的驱动器所产生的syslog消息如下输出。

[事件分类] <type: 模块类型><event: 事件ID> 消息

项目

显示

说明

事件分类

I

信息・通知

W

警告・注意

E

错误

模块类型

liscal

镜像驱动

clpkhb

内核模式LAN心跳驱动

clpka

KeepAlive驱动

事件ID

数字

消息

消息内容

(消息输出示例)

kernel: [I] <type: liscal><event: 101> Registered blkdev with major=218.

kernel: [I] <type: liscal><event: 130> NMP1 new thread: liscal_hb_client_thread (PID=30777).

kernel: [I] <type: liscal><event: 243> NMP1 N/W is USING 192.168.10.100 - 192.168.10.101 :29031(HB)

kernel: [W] <type: liscal><event: 220> NMP1 failed to create HB client socket. (err=-111: Connection refused)

kernel: [I] <type: clpkhb><event: 101> Kernel Heartbeat was initialized successfully. (major=10, minor=240)

kernel: [E] <type: clpkhb><event: 123> Failed to bind HB socket. (err=-99: Can not assign requested address)

Syslog按照以下日志级别输出。

模块类型

liscal

clpkhb

clpka

信息・通知[I]

KERN_INFO

KERN_INFO

KERN_INFO

警告・注意[W]

KERN_INFO

KERN_INFO

KERN_INFO

错误[E]

KERN_ERR

KERN_INFO

KERN_INFO

另外,关于消息的对应方法,请参考以下手册。

・《EXPRESSCLUSTER X开始指南注意限制事项

・《EXPRESSCLUSTER X维护指南维护信息

・《EXPRESSCLUSTER X参考指南》 9. 疑难解答

10.3.1. 镜像驱动程序

模块类型

事件分类

事件ID

消息

描述

处理方法

liscal

信息

101

Registered blkdev with major=%1.

镜像驱动程序的加载成功。

-

liscal

错误

102

Failed to register blkdev with major=%1.

镜像驱动程序的加载失败。

-

liscal

信息

103

Unregistered blkdev with major=%1.

镜像驱动程序的卸载成功。

-

liscal

警告

104

Failed to unregister blkdev with major=%1.

镜像驱动程序的卸载失败。

-

liscal

信息

110

Adding disk NMP%1 with major=%2 minor=%3.

正在添加镜像分区NMP[%1]。

-

liscal

信息

111

Deleting disk NMP%1 with major=%2 minor=%3.

正在删除镜像分区NMP[%1]。

-

liscal

信息

112

Cleaning up NMP%1 queue.

正在处理镜像分区NMP[%1]的队列。

-

liscal

错误

120

insmod did not pass %1 to liscal with %2.

镜像驱动加载失败。

要指定的参数不正确。

(使用功能 [%2]的参数[%1]的传递值不正确。)

请重启自身服务器。

liscal

错误

121

Failed to create a proc file %1.

不能创建proc文件[%1](liscalstat/liscalinner)。

请执行后面说明的※处理方法1(资源不足的处理)。

liscal

信息

122

%1 is busy. (proc->count=%2)

Proc文件[%1](liscalstat/liscalinner)正在被访问。请等到访问结束。

请确认有无进程正在访问[%1] (/proc/liscalstat或/proc/liscalinner)。

另外,相应进程将被kill掉。

liscal

信息

123

Forced to remove %1 after waiting %2 seconds.

等待[%2]秒,但因为无法强行结束访问,强制删除了 proc文件[%1](liscalstat/liscalinner)。

-

liscal

警告

124

NMP%1 waited for all I/O requests to be sent completely, but timeout occurred. Writing differences to bitmap.

停止时等待了所有的非同期数据送出,但是超时了。在差分位图中作了记录。

-

liscal

警告

125

NMP%1 %2 I/O requests (%3B) %4 not be sent to remote server %5.

未能确认非同步数据发送完成的I/O要求个数为[%2]个([%3]字节)。

-

liscal

信息

130

New thread: %2 (PID=%3)

启动线程[%2]。进程ID是[%3]。

-

liscal

信息

130

NMP%1 new thread: %2 (PID=%3)

启动线程[%2]。进程ID是[%3]。

-

liscal

错误

131

Failed to fork thread: %2 (err=%3)

线程[%2]的启动失败。

(错误代码=[%3])

请执行后面说明的※处理方法1(资源不足的对应方法)。

liscal

错误

131

NMP%1 failed to fork thread: %2 (err=%3)

线程[%2]的启动失败。

(错误代码=[%3])

请执行后面说明的※处理方法1(资源不足的对应方法)。

liscal

错误

132

killing thread............OK(%2)

线程[%2]正常结束。

-

liscal

错误

132

NMP%1 killing thread.......OK (%2)

线程[%2]正常结束。

-

liscal

信息

133

%1 is waiting for %2 terminated.

线程[%1]等待线程[%2]结束。

-

liscal

信息

134

NMP%1 received signal. (%2)

线程/处理[%2]接收到结束请求信号。

-

liscal

信息

135

NMP%1 exit...OK (%2)

处理[%2]正常结束。

-

liscal

错误

136

NMP%1 killing thread, but mount port is still opened.

卸载镜像驱动程序时,存在挂载状态的镜像磁盘资源。

(在挂载镜像驱动的状态下,试图结束镜像处理线程)

请确认镜像磁盘资源的状态。

liscal

错误

137

NMP%1 killing thread, but %2 I/O request still exist.

镜像分区处于忙碌状态。

(在对镜像分区的I/O请求尚未结束的状态下,试图结束镜像处理线程。)

请确认是否在访问镜像磁盘资源。

liscal

信息

140

NMP%1 liscal will shutdown, N/W port closed.

镜像分区在挂载的状态下进行了关机。停止了镜像数据的送信,未被送信的数据作为镜像差分被记录下来,进入镜像中断状态。

请使用clpstdn或clpdown等关闭服务器。请确认是否误用了shutdown或reboot等。

liscal

警告

141

NMP%1 device does not exist. (%2)

NMP[%1]不存在。

  • 请确认集群配置信息。

  • 请确认镜像磁盘/共享型磁盘的初始构筑步骤没有问题。

  • 符合以下情况时没有问题。

liscal

信息

141

- This message can be recorded on udev environment when liscal is initializing NMPx.

在udev运行的环境中,镜像驱动完成NMP[%1]的初始化之前,如果访问NMP[%1],可执行会输出该消息。

关于回避方法,请参考《开始指南》的"注意限制事项"-"关于udev等环境下的镜像驱动程序加载时的错误消息"。

liscal

信息

141

- Ignore this and following messages 'Buffer I/O error on device NMPx' on udev environment.

该情况下会输出该消息和NMP[%1]的缓冲I/O错误,这没有问题。

liscal

警告

142

NMP%1 N/W is not initialized yet. (%2)

驱动的初始化没有完成。

镜像驱动可执行有问题。请重启系统。

liscal

警告

143

NMP%1 cache_table is not initialized. (%2)

驱动初始化尚未结束。

同上。

liscal

警告

144

NMP%1 I/O port has been closed, mount(%2), io(%3). %4

在镜像分区未挂载的状态下,%4试图访问镜像分区。

请确认镜像磁盘资源的状态。

请确认有无应用程序直接访问镜像分区设备。

若使用用户添加的镜像分区设备或镜像挂载点命令其他挂载点的情况下,请在停止之前确认该挂载点是否被卸载。请参阅以下[对镜像磁盘资源等执行多条命令时]。

另外,还存在以下情况时。

liscal

信息

144

- This message can be recorded by fsck command when NMPx becomes active.

上述消息在通过fsck命令挂载之前访问时可执行会输出。

请参考《开始指南》的"注意限制事项" - "关于使用复数个镜像磁盘资源" - "共享型磁盘资源时的syslog消息" - "因大量I/O而导致的缓存增大" - "在镜像磁盘资源等进行复数的Mount时"

liscal

信息

144

- This message can be recorded on hotplug service starting when NMPx is not active.

另外, hotplug服务查找设备时也可执行会输出该消息。

liscal

信息

144

- Ignore this and following messages 'Buffer I/O error on device NMPx' on such environment.

该情况下,即使输出该消息和NMP[%1]的缓冲I/O错误,也没有问题。

liscal

错误

145

Failed to allocate %2

或者

NMP%1 failed to allocate %2

无法确保内存。

请执行后面说明的※处理方法1(资源不足的对应方法)。

liscal

信息

146

Failed to allocate %2, retrying.

或者

NMP%1 failed to allocate %2, retrying.

无法确保内存。

重试确保内存。

请执行后面说明的※处理方法1(资源不足的对应方法)。

liscal

警告

147

Failed to allocate %2, other area used instead.

无法确保内存。

使用预备空间。

请执行后面说明的※处理方法1(资源不足的对应方法)。

liscal

信息

148

NMP%1 holder %2. (%3)

挂载/卸载NMP[%1前后[%3]的时机)的互斥访问数为[%2]。

通常,挂载前和卸载后,[%2]为0,而挂载后和卸载前,[%2]为1。

卸载后不为0时,存在由于NMP[%1]被保持,或者由于umount没有完成就保持的可执行性。(在X3.1.3中添加)

卸载后不为0时,如果出现文件系统的错误等时,存在卸载超时的时间不充分的可执行性。

请参考《开始指南》的"注意限制事项"的"镜像磁盘资源,共享型镜像磁盘资源终止时的注意事项"和"因大量 I/O而导致的缓存增大"。)

并且,挂载前不为0时,存在fsck超时时间不充分的可执行性。

请参考《开始指南》的"注意限制事项"的"关于执行fsck"。

liscal

信息

150

NMP%1 mirror break, writing mirror_break_time to Cluster Partition.

发生镜像中断。镜像磁盘传输线发生问题,在对方服务器上向磁盘的I/O失败。

请确认镜像磁盘传输线的连接状态。

请确认镜像磁盘连接线或OS是否处于高负载状态。

liscal

信息

151

NMP%1 ACK1 timeout.

镜像同步数据的发送,在接受应答(ACK1)时超时。

同上。

liscal

信息

152

NMP%1 mirror break has occurred during recovery, recovery failed.

镜像恢复时因为发生镜像中断,导致镜像恢复异常结束。

同上。

liscal

信息

154

NMP%1 N/W port opened.

因为可以进行通信,所以服务器间的镜像同步数据通信端口打开。

-

liscal

信息

155

NMP%1 N/W port closed.

因为无法通信,服务器之间的通信端口关闭。

-

liscal

信息

156

NMP%1 failed to %2, because N/W port has been closed.

因为无法通信,数据[%2]的收发失败。

请确认镜像磁盘内网的连接状态。

请确认镜像磁盘内网或OS是否处于高负载状态。

liscal

信息

157

NMP%1 failed to recover, because N/W port of remote server has been closed.

因为对方服务器关闭通信,所以镜像恢复失败。

同上。

liscal

警告

158

NMP%1 received sync data, but mount port has been opened, sync failed.

对方服务器接收到同步数据,但因为自身服务器中挂载镜像分区,所以废弃了接受的同步数据。

请确认是否在镜像分区停止状态下进行挂载。

liscal

信息

159

NMP%1 received request to stop sending data from remote server.

向对方服务器发送了同步数据,可执行由于对方服务器中Mount了镜像分区,因此处于无法发送状态,结果发送的同步数据被取消。

同上。

liscal

错误

160

NMP%1 disk I/O error%2

当前或过去发生过磁盘I/O错误。

重启系统。

如果在运行中输出,则镜像磁盘可执行发生物理错误。

请参考《维护指南》"维护信息",交换镜像磁盘,并恢复镜像。

如果在集群时显示,请确认集群配置信息的集群分区的设置。

liscal

错误

160

- Confirm that the new disk is cleared, if it has been replaced already.

如果更换镜像磁盘后,仍然输出上述消息,请参考《维护指南》"维护信息",清除集群分区。

liscal

错误

160

- Replace the old error disk with a new cleared disk, if it has not been replaced yet.

如果没有更换镜像磁盘,请参考《维护指南》"维护信息",进行更换。

liscal

错误

161

NMP%1 failed to %2 %3 %4 Cluster Partition.

对集群分区内领域 [%3]的I/O处理[%2](read/write/read/write/clear/flush)失败。

请执行后面说明的※处理方法1(资源不足的对应方法)。

如果在运行中输出,则镜像磁盘可执行发生物理错误。

请参考《维护指南》"维护信息",交换镜像磁盘,并恢复镜像。

集群构筑时显示,则请确认集群配置信息的集群分区的设置。

liscal

警告

162

NMP%1 failed to %2 the bitmap. %3 (%4)

在处理[%4]中,进行对应[%3]的区域的差异位图处理[%2](set/clear)失败。

请执行集群关机和重启。

liscal

信息

163

NMP%1 %2 is null. (%3)

驱动初始化尚未完成。

镜像驱动可执行发生问题。请重启系统。

liscal

警告

164

NMP%1 sector %2 not found. (%3)

在驱动内的队列中没有发现相应的扇区 [%2]的处理信息。

-

liscal

警告

165

NMP%1 requested sector is out of NMP area. (%2)

处理[%2]中,接收到对超过镜像分区大小的领域的I/O请求。

请求被废除。

-

liscal

信息

166

NMP%1 %2 is null. (%3)

已设置为有差异的差异位图被再次设置。

-

liscal

信息

167

NMP%1 %2 is null. (%3)

已进行发送处理的ACK2被再次发送。

-

liscal

错误

168

NMP%1 failed to %2 bitmap. Invalid %3

针对[%3]领域的差异位图的处理[%2]失败。

镜像驱动程序有可执行发生问题。

请确认两类服务器的镜像磁盘的1个扇区的大小是否不同。

liscal

警告

170

ioctl() got %1 with NULL, exit.

查出非法的ioctl()调用。

OS运行可执行不稳定。

请重启系统。

liscal

错误

171

NMP%1 requested I/O with wrong command(%2) from FS.

文件系统对镜像分区发出非法I/O请求[%2]。

对NMP device的请求非法。

同上。

liscal

警告

172

request_id(%2) is too big. (%3)

或者

NMP%1 request_id(%2) is too big. (%3)

在处理处理[%3]中查出非法值的处理ID。

将被废除。

-

liscal

警告

173

NMP%1 failed to send, but its ID was not found in request_queue. (%2)

由于镜像同步数据发送失败,要删除处理信息,但在驱动内的队列中没有找到该处理ID。

镜像驱动可执行有问题。请重启系统。

liscal

信息

174

NMP%1 request_id(%2) deleted. (%3)

因为镜像同步数据发送失败,所有从驱动内的队列中正常删除处理ID[%2]的处理信息。

-

liscal

错误

175

request_id(%2) ACK1 timeout, but its NMP%1 not found. (%3)

处理ID[%2]的镜像同步数据发送的应答ACK1超时。但是处理ID[%2]相对应的镜像分区不存在。

-

liscal

信息

176

NMP%1 received ACK1, but its ID was not found in request_queue.

接收到镜像同步数据的应答ACK1。但是,驱动内的队列中不存在与之对应的接收等待信息。

ACK1接收等待可执行已经超时。

若ACK1超时(事件ID:151)的日志之前已发出,可执行由于对方服务器,网络的高负荷,使对方服务器发出的ACK1接收延迟。此时,请带有充裕对ACK进行超时设置。

(※处理方法4)

liscal

信息

177

NMP%1 received ACK2, but its ID was not found in wait_ack2_queue.

ACK2接收等待可执行已经超时。

接收到镜像同步完成通知ACK1的应答ACK2。但是,驱动内的队列中不存在与之对应的接收等待信息。

-

liscal

警告

178

request_id(%2) of ACK is not found in trans_table. (%3)

或者

NMP%1 request_id(%2) of ACK is not found in trans_table. (%3)

接收到处理ID[%2]的应答ACK。但是未在驱动内的队列中发现对其接收等待信息。

ACK接收等待可执行已经超时。

-

liscal

信息

179

NMP%1 received request to stop sending data, but its ID was not found in request_queue.

从对方服务器中接收到镜像同步数据的通信关闭要求,而不是ACK1。但是,驱动内的队列中不存在与之对应的接收等待信息。

ACK1接收等待可执行已经超时。

-

liscal

警告

180

%2 (%3) is invalid. The default setting (%4) will be used instead.

或者

NMP%1 %2 (%3) is invalid. The default setting (%4) will be used instead.

参数[%2](值:[%3])非法。

使用默认值[%4]代替。

可执行错误地直接编辑了配置文件。请使用Cluster WebUI确认设置值。

关于参数,请参考后述的※处理方法2的表。

liscal

信息

181

NMP%1 %2 (%3) is invalid. The maximum number (%4) will be used instead.

参数[%2](值:[%3])不正确。

使用最大值[%4]代替。

使用超时倍率调整(clptoratio命令)时,可执行会超过最大值。此时,使用最大值。

关于参数,请参考后述的※处理方法2的表。

liscal

错误

182

%2 (%3) is invalid. (%6)

或者

NMP%1 %2 (%3) is invalid. (%6)

或者

%2 (%3) or %4 (%5) is invalid. (%6)

或者

NMP%1 %2 (%3) or %4 (%5) is invalid. (%6)

ioctl()中指定的参数[%2](值:[%3]),或者参数[%4](值:[%5])不正确。请求的处理在处理[%6]中中止。

可执行错误地直接编辑了配置文件。请使用Cluster WebUI确认设置值。

liscal

信息

183

NMP%1 %2 is %3. Heartbeat of mirror disk connection will be ignored.

参数[%2](值:[%3])被指定。

镜像磁盘内部连接的心跳被忽略。

-

liscal

信息

184

The same %1 Partition is specified. Specify different partitions. (NMP%2, NMP%3)

[%1](Cluster/Data)分区的指定不正确。

多个(NMP[%2]和NNP[%3])资源中被重复指定为相同的分区。

Linux版的集群版本或数据分区,需要按照每个资源分配为不同的分区。

请修改分区指定。

分区配置有问题时,请重新进行分区配置。

liscal

信息

185

ioctl (%2) is invalid. ignored. (%3)

或者

NMP%1 ioctl (%2) is invalid. ignored. (%3)

处理 [%3]中无效的ioctl() [%2]被检出。被忽略。

-

liscal

信息

190

NMP%1 sync switch flag is set to ON. %2

启用了数据同步。

-

liscal

信息

191

NMP%1 sync switch flag is set to OFF. %2

禁用了数据同步。

-

liscal

信息

192

NMP%1 open I/O port OK.

开始向数据分区的I/O。

-

liscal

信息

193

NMP%1 close I/O port OK.

停止向数据分区的I/O。

-

liscal

信息

194

NMP%1 open mount port OK.

可以访问镜像分区。

-

liscal

信息

195

NMP%1 close mount port OK.

关闭镜像分区的访问。

-

liscal

信息

196

NMP%1 open N/W port OK.

开放服务器间的镜像同步通信端口。

-

liscal

信息

197

NMP%1 close N/W port OK.

关闭服务器间的镜像同步通信端口。

-

liscal

信息

200

NMP%1 bmp_size_in_sec (%2) is invalid.

差分位图的容量不正确。可执行是集群分区的设置不正确。

请确认集群配置信息的集群分区的设置。

liscal

警告

201

NMP%1 failed to calculate bitmap offset (%2).

差分位图的计算发生不一致。

OS可执行不稳定。

请重启系统。

liscal

错误

202

NMP%1 sector size of Data Partition (%2) is invalid.

数据分区的扇区大小(%2)过大。

请确认镜像磁盘/共享型镜像磁盘的初始构筑步骤是否正确。

liscal

警告

203

NMP%1 failed to get total_bitmap_in_bits (%2). (%3)

处理[%3]中不能正常获取镜像的差分信息。(获取值:[%2])

同上。

liscal

警告

204

NMP%1 no trans_table available, recovery failed.

镜像复归失败。

正在镜像复归的NMP数超出上限。

所以无法利用镜像复归的管理空间。

  • 请确认集群配置信息的NMP数。

  • 镜像驱动可执行有问题。请重启系统并再次进行镜像复归。

liscal

警告

205

NMP%1 failed to lock disk I/O, recovery failed.

镜像复归失败。

(与其他磁盘I/O的互斥不能进行。)

镜像驱动程序可执行有问题。请重启系统并再次进行镜像复归。

liscal

警告

206

NMP%1 current NMP has been already locked.

与其他磁盘I/O的互斥已经完成。(多个镜像复归进程要进行相同数据块的操作。)

镜像驱动可执行有问题。请重启系统并再次进行镜像复归。

liscal

警告

207

NMP%1 current NMP has not been locked.

与其他磁盘I/O的互斥已经解除。

同上。

liscal

警告

208

NMP%1 waited for sync data (sector=%2) written to disk completely, but timeout.

在读入镜像复归数据之前等待对扇区[%2]执行的磁盘I/O结束,但发生了超时。

继续镜像复归处理。

-

liscal

信息

209

NMP%1 waiting for recovery data to be %2. (%3/%4)

镜像复归数据在[%2](read/written)的过程中,要求关闭。处理了[%4]中的[%3]。等待剩余的I/O完成。

-

liscal

警告

210

NMP%1 failed to connect to remote server. (err=%2)

因为错误[%2],与对方服务器的连接失败。

  • 请确认集群配置信息的镜像磁盘连接的设置。

  • 请确认镜像磁盘内部连接的状态。请确认镜像磁盘内部连接或OS是否处于高负载状态。

  • 连接超时的值可执行过小。请扩大值。(请参考后述的※处理方法2的表。)

liscal

信息

211

NMP%1 failed to send %2, retrying again.

[%2]发送失败。重新发送。

  • 请确认镜像磁盘内部连接的状态。请确认镜像磁盘连接或者OS是否处于高负荷状态。不是操作上的问题,但以后可执行导致镜像中断。

  • 发信超时的值可执行过小。请扩大值。(请参考后述的※处理方法2的表。)

liscal

警告

212

NMP%1 failed to send %2.

[%2]发送失败。

  • 请确认镜像磁盘内部连接的状态。请确认镜像磁盘内部连接或OS是否处于高负载状态。

  • 请确认对方服务器的镜像agent是否运行。

liscal

错误

213

NMP%1 failed to read recovery data.

镜像复归数据读入失败。

  • 如果是因为资源不足,请参考后述的※处理方法1(资源不足的处理方法)进行处理。

  • 如果运行中输出,则镜像磁盘可执行发生物理异常。请参考《维护指南》"维护信息",更换镜像磁盘并进行镜像复归。

liscal

警告

214

  1. NMP%1 failed to write recovery data.

  2. NMP%1 failed to write recovery data at remote server.

  1. 自身服务器中镜像复归数据写入失败。

  2. 对方服务器中镜像复归数据写入失败。

同上。

liscal

信息

215

NMP%1 failed to recover because of %2.

等待镜像复归数据发送应答,但检测到镜像磁盘内部连接的中断请求或取消镜像复归的请求,所以中断镜像复归。

  • 请确认镜像磁盘内部连接的状态。

    请确认镜像磁盘内部连接或OS是否处于高负载状态。

  • 在取消镜像复归的情况下,不需要做任何处理。

liscal

信息

216

NMP%1 ACK timeout, %2, retrying again.

已发送镜像复归数据%2的应答超时。

重新发送。

  • 请确认镜像磁盘内部连接的状态。

    请确认镜像磁盘内部连接或OS是否处于高负载状态。

  • 增大镜像超时值或缩小复原数据大小。(※处理方法4)

liscal

警告

217

NMP%1 ACK timeout, %2, recovery failed.

对发送镜像复归数据%2的应答超时。

镜像复归失败。

  • 请确认镜像磁盘内部连接的状态。

    请确认镜像磁盘内部连接或OS是否处于高负载状态。

  • 增大镜像超时值或缩小复原数据大小。(※处理方法4)

liscal

警告

218

NMP%1 async send queue is full. Mirror break.

发信数据队列已满。进入镜像中断状态。

请确认镜像磁盘内部连接的状态。

请确认镜像磁盘内部连接或OS是否处于高负载状态。

liscal

信息

219

NMP%1 can not send async data, because N/W port has been closed.

因此镜像磁盘连接处于断线状态,因此不能发送数据发送队列。

请确认镜像磁盘连接的接续状态。

请确认镜像磁盘连接或者磁盘I/O或者OS是否处于高负载状态。

liscal

警告

220

NMP%1 failed to create %2 socket (%3).

或者

NMP%1 failed to create %2 socket.

因为错误[%3],创建[%2]所用的通行端口失败。

  • 请确认集群配置信息的镜像磁盘内部连接的设置。

  • 请确认镜像磁盘内部连接的状态。

    请确认镜像磁盘内部连接或OS是否处于高负载状态。

  • 请确认是否有其他应用程序等在使用镜像内部连接用的资源(端口等)。(※处理方法3)

  • 如果可执行是因为资源不足,请参考后述的※处理方法1(资源不足的处理方法)进行处理。

liscal

警告

221

NMP%1 failed to bind %2 socket (%3).

同上。

同上。

liscal

警告

222

NMP%1 failed to listen %2 socket (%3).

同上。

同上。

liscal

警告

223

NMP%1 failed to accept %2 socket (%3).

因为错误[%3],服务器间的连接建立和通信失败。

同上。

liscal

警告

224

NMP%1 failed to receive %2 (err=%3).

或者

NMP%1 failed to receive %2 (err=%3), %4.

因为错误[%3],数据[%2]的(领域[%4]部分)接收失败。

  • 请确认镜像磁盘内部连接的状态。

    请确认镜像磁盘内部连接或OS是否处于高负载状态。

  • 接收超时的值可执行过小。请扩大值。(请参考后述的※处理方法2的表。)

liscal

警告

225

NMP%1 received wrong head part. (magic=%2 cmd=%3) (%4)

接收处理[%4]中接收到预想之外的数据(magic=[%2], cmd=[%3])。

  • 除EXPRESSCLUSTER之外,可执行有其它应用程序在使用镜像磁盘内部连接。

    请保证无EXPRESSCLUSTER之外的应用程序使用镜像磁盘内部连接。

    关于EXPRESSCLUSTER所使用的端口号,请参考《维护指南》"维护信息"的"通信端口信息""集群驱动程序设备信息"。

  • 镜像磁盘内部连接可执行出现异常。请确认镜像磁盘内部连接的状态。

liscal

警告

226

  1. NMP%1 received wrong command (cmd=%2).

  2. NMP%1 received wrong command (cmd=%2) instead of %3.

  1. 镜像数据的接收处理中接收到预想之外的数据(cmd=[%2])。

  2. 数据[%3](HB/ACK2)的接收处理中接收到预想之外的数据(cmd=[%2])。

同上。

liscal

警告

227

NMP%1 failed to uncompress %2.

通信数据[%2]的压缩/解压失败。

请参考后述的※处理方法1(资源不足的处理方法)进行处理。

liscal

警告

228

NMP%1 failed to execute received command. (cmd=%2, err=%3)

接收处理中接收[%2]的请求并进行了处理,但出现 [%3]错误。

关于错误的详细内容,请参考该日志之前输出的日志。

liscal

警告

229

NMP%1 failed to receive data, because recv_sock is NULL.

数据接收处理失败。

镜像驱动可执行有问题。请重启系统。

liscal

信息

230

NMP%1 recv_sock is NULL, can not delete keepalive timer.

同上。

同上。

liscal

警告

231

NMP%1 accepted receive data, but this server is not current server of hybrid disk.

共享型镜像磁盘构成中,其他服务器作为当前服务器运行,但本服务器却接收到了数据。

忽略接收数据。

接收的数据将由发送方服务器重新发送给当前服务器。

-

liscal

信息

232

NMP%1 disconnected %2 N/W. (%3)

处理[%3]中等待[%2](DATA/HB/ACK2)的接收,但通信被断开。

-

liscal

信息

233

NMP%1 failed to receive recovery data at remote server, retrying again.

对方服务器中镜像复归数据接收失败。

重新发送。

请确认镜像磁盘内部连接的状态。

请确认镜像磁盘内部连接或OS是否处于高负载状态。

liscal

警告

234

NMP%1 failed to receive recovery data at remote server, recovery failed.

对方服务器中镜像复归数据接收失败。

镜像复归失败。

同上。

liscal

警告

235

NMP%1 gave up ACK before ACK timeout.

因为发生镜像连接中断,在发送镜像复归数据接受应答(ACK)发生超时之前,中断。

同上。

liscal

警告

236

NMP%1 gave up ACK1 before ACK1 timeout.

因为发生镜像连接中断,在发送镜像同期数据接受应答(ACK)发生超时之前,中断。

同上。

liscal

警告

240

NMP%1 status of current using N/W is ERROR. (%2)

试图发送镜像数据,但当前使用的镜像磁盘内部连接出现错误,发送被中断。

请确认镜像磁盘内部连接的状态。

请确认镜像磁盘内部连接或OS是否处于高负载状态。

liscal

警告

241

NMP%1 can not find a N/W to use. (%2)

[%2](DATA/HB/ACK2)的通信可使用的镜像磁盘内部连接不存在。

  • 请确认集群配置信息。

  • 请确认镜像磁盘内部连接的状态。

    请确认镜像磁盘内部连接或OS是否处于高负载状态。

liscal

警告

242

NMP%1 all of the networks are ERROR.

所有镜像磁盘内部连接出错。

同上。

liscal

信息

243

NMP%1 N/W is %2 %3 - %4 :%5(%6)

NMP%1 N/W is %2 %3 - %4

当前[%6](DATA/HB/ACK2)所用的镜像磁盘内部连接(IP地址[%3] [%4],端口[%5])断开或者连接,状态变为[%2](ERROR/USING/FREE)。

如果显示ERROR,请确认镜像磁盘内部连接的状态。

请确认镜像磁盘内部连接或OS是否处于高负载状态。

liscal

警告

250

Received ICMP. Length of received ICMP is less than 8.

接收到长度不对的非法ICMP数据包。

-

liscal

信息

251

Received ICMP. Type=(%1) Code=(%2)

接收到类型为[%1],代码为 [%2]的ICMP数据包。

(返回无法到达接收方的消息。)

-

liscal

信息

252

Received ICMP. Type=(%1) Code=(%2). Ignored.

或者

Received ICMP. Type=(%1) with same ID(%3). Ignored.

接收到类型为[%1],代码为 [%2],ID为[%3]的ICMP数据包。

忽略该数据包。

-

liscal

警告

260

NMP%1 failed to switch N/W to (priority:%2). (%3)

通过mdc切换命令请求切换到优先级别为[%2]的镜像磁盘内部连接,但一直处于[%3]的状态,无法切换。

  • 请确认集群配置信息。

  • 请确认镜像磁盘内部连接的状态。

    请确认镜像磁盘内部连接或OS是否处于高负载状态。

liscal

信息

261

NMP%1 already switched N/W to (priority:%2).

通过mdc切换命令请求切换到优先级别为[%2]的镜像磁盘内部连接,但已经使用优先级别为[%2]的镜像磁盘内部连接。

-

liscal

信息

262

NMP%1 uses N/W (priority:%2).

使用优先级别[%2]的镜像磁盘内部连接。

-

liscal

信息

263

NMP%1 switched N/W from (priority:%2) to (priority:%3).

通过mdc切换命令,从优先级别[%2]的镜像磁盘内部连接切换到优先级别为%3的镜像磁盘内部连接。

-

liscal

信息

270

NMP%1 this FS type (%2) is not supported for high speed full copy.

试图通过镜像复归进行全面复制。

文件系统当前版本不支持高速处理。

请确认复制源的文件系统是否正常创建。

(有关文件系统的注意事项,请参照《开始指南》的"注意限制事项")

liscal

信息

271

NMP%1 FS type is %2.

镜像复归对象的文件系统类型为[%2](EXT2/EXT3/EXT4)。

-

liscal

警告

272

NMP%1 could not read %2 of FS.

无法读入文件系统的[%2]领域。

请确认复制源的文件系统是否正常创建。

liscal

警告

273

NMP%1 failed to set the bitmap dependent on FS.

无法更新文件系统所使用的领域对应的差分位图。

-

liscal

信息

280

NMP%1 requested to change compress flag. (Sync data : %2) (Recovery data : %3)

镜像传送数据的压缩功能变更为[%2](ON/OFF) [%3](ON/OFF)。

-

liscal

信息

281

NMP%1 flag of compress (Sync data:%2) (Recovery data:%3)

镜像传送数据的压缩功能设置为[%2](ON/OFF) [%3](ON/OFF)。

-

liscal

错误

282

NMP%1 failed to set %2 key. (%3)

密钥设置失败。

  • 考虑到资源不足时,请执行后面说明的※处理方法1(资源不足的对应方法)。

  • OS运行可执行不稳定。请重启系统。

liscal

错误

283

NMP%1 failed to encrypt magic data. (err=%2%3)

镜像数据加密失败。

  • 考虑到资源不足时,请执行后面说明的※处理方法1(资源不足的对应方法)。

  • OS运行可执行不稳定。请重启系统。

NMP%1 failed to encrypt data. (err=%2%3)

同上

同上

NMP%1 failed to encrypt data. (encryption serial no overflow) (%2)

加密序列号溢出。

请更新NMP%1的加密密钥。

liscal

错误

284

NMP%1 failed to decrypt magic data. (err=%2%3)

镜像数据解密失败。

  • 考虑到资源不足时,请执行后面说明的※处理方法1(资源不足的对应方法)。

  • OS运行可执行不稳定。请重启系统。

NMP%1 failed to decrypt data. (err=%2%3)

同上

同上

NNMP%1 failed to decrypt data. (encryption serial no overflow) (%2)

加密序列号溢出。

请更新NMP%1的加密密钥。

liscal

信息

285

NMP%1 using crypto.

NMP%1启用镜像通信加密功能。

-

liscal

错误

286

NMP%1 received invalid data. (liscal_crypto_recv_magic)

解密数据不正确。

  • 请确认使用的加密密钥是否正确。

  • 考虑到资源不足时,请执行后面说明的※处理方法1(资源不足的对应方法)。

  • OS运行可执行不稳定。请重启系统。

liscal

错误

287

NMP%1 received invalid length. (bl_size=%2, bk_size=%3)

接收的加密数据大小不对。

  • 考虑到资源不足时,请执行后面说明的※处理方法1(资源不足的对应方法)。

  • OS运行可执行不稳定。请重启系统。

NMP%1 Internal error. receiving size (%2) > buffer size (%3) (liscal_crypto_recv_data)

同上

同上

NMP%1 received invalid length. (len=%2, offset=%3)

同上

同上

liscal

错误

288

NMP%1 failed to set auth size. (%2)

加密功能初始化失败。

  • 考虑到资源不足时,请执行后面说明的※处理方法1(资源不足的对应方法)。

  • OS运行可执行不稳定。请重启系统。

liscal

信息

290

NMP%1 logging statistics information started. (PID=%2)

开始记录镜像统计信息。

-

liscal

信息

291

NMP%1 logging statistics information stopped. (PID=%2)

停止记录镜像统计信息。

-

liscal

信息

292

NMP%1 logging statistics information cleared.

暂时清除镜像统计信息的计数器。

-

liscal

警告

293

NMP%1 statistics information not found. (PID=%2)

内部错误。

想要访问尚未开始或已经结束的镜像统计信息记录。

使用命令获取镜像统计信息时,请再次执行命令。

liscal

信息

294

Perf%1

镜像统计信息的输出结果[%1]。

-

liscal

信息

300

NMP%1 QoS %2 KB/sec.

带宽限制设置为[%2]。

-

liscal

错误

310

NMP%d failed to delete history information. (%1)

无法删除未发送数据的历史记录。

  • 请执行后面说明的※处理方法1(资源不足的对应方法)。

  • 如果在运行中输出,则镜像磁盘可执行发生物理错误。请参考《维护指南》"维护信息",交换镜像磁盘,并恢复镜像。

liscal

错误

311

NMP%d failed to read history information. (%1)

无法读取未发送数据的历史记录。

如果在运行中输出,则镜像磁盘可执行发生物理错误。

请参考《维护指南》"维护信息",交换镜像磁盘,并恢复镜像。

liscal

错误

312

NMP%d failed to write history information. (%1)

无法写入未发送数据历史记录。

如果在运行中输出,则镜像磁盘可执行发生物理错误。

请参考《维护指南》"维护信息",交换镜像磁盘,并恢复镜像。

liscal

错误

313

NMP%d failed to write history information. (overflow)

未发送数据的历史记录的件数已达上限。

  • 请确认镜像磁盘连接或OS是否处于高负载状态。

  • 未发送数据历史记录区域的大小是否太小,请确认设置。

liscal

错误

321

NMP%d failed to read a history file. (%1)

无法读取历史文件。

  • 请执行后面说明的※处理方法1(资源不足的对应方法)。

  • OS运行可执行不稳定。请重启系统。

  • 如果在运行中输出,则历史文件保存文件夹的磁盘中会发生物理异常。请更改历史文件保存文件夹的设置,或者进行磁盘交换。

liscal

错误

322

NMP%d failed to write a history file. (%1)

无法写入历史文件。

  • 请执行后面说明的※处理方法1(资源不足的对应方法)。

  • OS运行可执行不稳定。请重启系统。

  • 历史文件保存文件夹的分区可执行没有足够大的容量。请确保剩余容量。

  • 如果在运行中输出,则历史文件保存文件夹的磁盘中会发生物理异常。请更改历史文件保存文件夹的设置,或者进行磁盘交换。

liscal

错误

323

NMP%d failed to write a history file. (overflow)

历史文件的大小合计已达上限。

  • 请确认镜像磁盘连接或OS是否处于高负载状态。

  • 请确认历史文件大小限制的设定值是否太小。

liscal

错误

324

NMP%d failed to delete a history file. (%1)

无法删除历史文件。

请确认其他应用程序等,是否正在使用历史文件保存目录以及它上面的文件。

liscal

错误

330

NMP%d Internal error. (%1)

内部错误。

镜像驱动可执行有问题。请重启系统。

liscal

信息

331

--- Previous liscal message repeated %1 times ---

上一条消息已连续输出[%1]次。

-

※处理方法1: 资源不足的处理方法

物理内存可执行不足。
请增加物理内存或结束不必要的应用程序。
镜像驱动所确保的I/O请求队列数的上限可执行过大。
如果对镜像磁盘大量发出超出处理性能的I/O要求,则I/O请求会进入镜像驱动内的队列中,所以会使用内核的内存。
请参考本指南的"2. 参数的详细信息",通过[集群属性]的[镜像驱动]标签,减小请求队列的最大数的设置值。
文件系统可执行使用了大量缓存。
如果存在大量超过处理性能的I/O请求,则除了缓存和用户空间所用内存区域,内核空间用的内存区域也被文件系统的缓存所使用。
此时,作为回避手段,请设置/proc/sys/vm/lower_zone_protection,防止驱动使用的内核空间的内存区域被缓存所使用。

※处理方法2: 参数

日志中的
参数名
Cluster WebUI中的
设置项目名称
Cluster WebUI中的
设置项目的位置

Bitmap refresh interval

Bitmap更新间隔 (bpchkinterval)

集群的属性 镜像驱动 标签

max_cachenum

(maxcache)

无 (配置文件内)

send_queue_size
send_queue_cnt
队列数
(sendqueuesize)
镜像磁盘调整属性
镜像 标签

band_limit_mode

通信带宽限制
(mode)

band_limit

通信带宽限制
(bandlimit)

ack_timeout

Ack超时
(acktimeout)
镜像磁盘调整属性
镜像驱动 标签

connect_timeout

连接超时
(connecttimeout)

send_timeout

发送超时
(sendtimeout)

receive_normal_timeout

接收超时
(recvnormaltimeout)

hb_interval

心跳间隔
(hbinterval)

无 (配置文件内)

hb_recv_timeout

ICMP接收超时
(pingtimeout)

hb_recv_retry

ICMP重试次数
(pingretry)

keepalive_time

(keepalive/timeout)

keepalive_probe

(keepalive/prob)

keepalive_interval

(keepalive/interval)

lastupdate_delay

(lupdatedelay)

关于各参数的设置,请参考本指南的以下章节。

※处理方法3: 关于镜像驱动所使用的端口号,请参考以下内容。

※处理方法4:镜像的超时调整参数

Cluster WebUI上设定项的名字

Cluster WebUI上设定项的位置

复原数据大小

集群属性
镜像agent 标签

Ack超时

镜像磁盘调整属性
镜像驱动 标签

连接超时

发送超时

接收超时

关于各参数的设定请参照本指南的以下章节

10.3.2. 内核模式LAN心跳驱动程序

模块类型

事件分类

事件ID

消息

描述

处理方法

clpkhb

信息

101

Kernel Heartbeat was initialized successfully. (major=%1, minor=%2)

clpkhb驱动加载成功。

-

clpkhb

信息

102

Kernel Heartbeat was released successfully.

clpkhb驱动卸载成功。

-

clpkhb

错误

103

Can not register miscdev on minor=%1. (err=%2)

clpkhb驱动加载失败。

-

clpkhb

错误

104

Can not deregister miscdev on minor=%1. (err=%2)

clpkhb驱动卸载失败。

-

clpkhb

信息

105

Kernel Heartbeat was initialized by %1.

clpkhb驱动程序被[%1]模块正常初始化。

-

clpkhb

信息

106

Kernel Heartbeat was terminated by %1.

clpkhb驱动程序被[%1]模块正常结束。

-

clpkhb

错误

107

Can not register Kernel Heartbeat proc file!

clpkhb驱动用的proc文件创建失败。

-

clpkhb

错误

108

Version error.

clpkhb驱动的内部版本信息不正确。

请重新安装EXPRESSCLUSTER。

clpkhb

信息

110

  1. The send thread has been created. (PID=%1)

  2. The recv thread has been created. (PID=%1)

  1. clpkhb驱动程序得到正常创建。进程ID是[%1]。

  2. clpkhb驱动程序的收信线程得到正常创建。进程ID是[%1]。

-

clpkhb

错误

111

  1. Failed to create send thread. (err=%1)

  2. Failed to create recv thread. (err=%1)

  1. 因为错误[%1],clpkhb驱动的发送线程创建失败。

  2. 因为错误[%1],clpkhb驱动的接收线程创建失败。

-

clpkhb

信息

112

  1. Killed the send thread successfully.

  2. Killed the recv thread successfully.

  1. clpkhb驱动程序的发信线程得到正常停止。

  2. clpkhb驱动程序的收信线程得到正常停止。

-

clpkhb

信息

113

Killed the recv thread successfully.

clpkhb驱动退出。

-

clpkhb

信息

114

Killed the recv thread successfully.

clpkhb驱动停止。

-

clpkhb

信息

115

Kernel Heartbeat has been stopped!

clpkhb驱动程序已经正常停止。

-

clpkhb

错误

120

  1. Failed to create socket to send %1 packet. (err=%2)

  2. Failed to create socket to receive packet. (err=%2)

  1. 因为错误[%2],[%1](HB/DOWN/KA)数据包发送所用Socket创建失败。

  2. 因为错误[%2],数据包接收所用Socket创建失败。

-

clpkhb

错误

121

Failed to create sending %1 socket address. (err=%2)

[%1](HB/DOWN/KA)发送用Socket设置失败。

物理内存可执行不足。请增加物理内存或退出不使用的应用程序。

clpkhb

错误

122

Failed to create %1 socket address. (err=%2)

[%1](HB/DOWN/KA)发送用Socket设置失败。

物理内存可执行不足。请增加物理内存或退出不使用的应用程序。

clpkhb

错误

123

Failed to bind %1 socket. (err=%2)

[%1](HB/DOWN/KA/recv)所用Socket绑定失败。

  • 请确认OS的状态。

  • 用于clpkhb的通信端口可执行已经被其他应用程序使用。请确认通信端口的使用状况。

  • 请确认私网LAN I/F中设置的IP地址是否错误,并确认集群配置信息中的服务器属性。

clpkhb

错误

125

Failed to send %1 data to %2. (err=%3)

[%1](HB/DOWN/KA)数据不能发送到[%2]。

  • 请确认用于clpkhb通信的网络状态。

  • 请确认对方服务器的状态。

  • 请确认配置信息是否有问题。

clpkhb

错误

126

Failed to receive data. (err=%3)

数据接收失败。

  • 对方服务器可执行宕机。请确认。

  • 对方服务器没有宕机时,请确认用于clpkhb的网络的状态。

clpkhb

信息

127

  1. Received an invalid packet. magic is not correct!

  2. Received an invalid packet from %1. Magic(%2) is not correct!

  1. 接收到不正确的包。忽略该包。

  2. 从[%1]接收不正确的包[%2]。忽略该包。

可执行其他应用程序在向用于clpkhb的端口发送数据。请确认端口的使用状况。

clpkhb

错误

128

  1. Received an invalid packet. %1 is not correct!

  2. Received an invalid packet from %1. %2 is not correct!

  1. 接收到不正确的包。[%1]为包内不正确的地方(Resource priority/Source ip address)。

  2. 从[%1]接收不正确的包。包内不正确的地方是[%2](Resource priority/Source ip address)。

同上。

clpkhb

信息

129

Receiving operation was interrupted by ending signal!

收信线程通过结束信号退出。

-

clpkhb

信息

130

  1. clpka: <server priority: %1> <reason: %2> <process name: %3> system reboot.

  2. clpka: <server priority: %1> <source: %2> <exit code: %3> system reboot.

  1. 接收到来自其他服务器的重置通知。优先级别[%1]的服务器在[%3]进程发生[%2]异常,所以将进行重置。

  2. 接收到来自其他服务器的重置通知。因为[%2]以结束代码[%3]结束,优先[%1]的服务器进行重置。

请确认发生重新设置的服务器的状态。

clpkhb

信息

131

  1. clpka: <server priority: %1> <reason: %2> <process name: %3> system panic.

  2. clpka: <server priority: %1> <source: %2> <exit code: %3> system panic.

  1. 接收到来自其他服务器的Panic通知。优先级别[%1]的服务器在[%3]进程发生[%2]异常,所以将进行Panic。

  2. 接收到来自其他服务器的Panic通知。因为[%2]以结束代码[%3]结束,优先[%1]的服务器进行Panic。

请确认发生Panic的服务器的状态。

clpkhb

错误

140

Reference an inaccessible memory area!

通过ioctl()与应用程序的数据收发失败。

请确认OS的状态。

clpkhb

错误

141

Failed to allocate memory!

内存确保失败。

物理内存可执行不足。请增加物理内存或退出不使用的应用程序。

clpkhb

错误

142

Invalid argument, %1!

传递给clpkhb驱动的参数不正确。

请确认设置是否正确。

clpkhb

警告

143

Local node has nothing with current resource.

传递给clpkhb驱动的心跳资源信息不正确。

同上。

10.3.3. KeepAlive驱动程序

模块类型

事件分类

事件ID

消息

描述

处理方法

clpka

信息

101

Kernel Keepalive was initialized successfully. (major=%1, minor=%2)

clpka驱动程序被正常加载。

-

clpka

信息

102

Kernel Keepalive was released successfully.

clpka驱动程序被正常卸载。

-

clpka

错误

103

Can not register miscdev on minor=%1. (err=%2)

clpka驱动程序的加载失败。

请确认是不是内核模式LAN心跳支持的Distribution,内核。

clpka

信息

105

Kernel Keepalive was Initialized by %1.

clpka驱动被正常初始化。

-

clpka

错误

107

Can not register Kernel Keepalive proc file!

clpka驱动所用的proc文件创建失败。

可执行是因为内存不足等导致内核没有正常运行。请增加物理内存或者结束不必要的应用程序。

clpka

错误

108

Version error.

clpka驱动的版本不正确。

请确认安装的clpka驱动是否为正规版本。

clpka

错误

111

Failed to create notify thread. (err=%1)

clpka驱动的线程创建失败。

可执行是因为内存不足等导致内核没有正常运行。请增加物理内存或者退出不适用的应用程序。

clpka

信息

130

Reboot tried.

根据设置,clpka驱动尝试重启机器。

-

clpka

信息

132

Kernel do nothing.

根据设置,clpka驱动没有执行任何操作。

-

clpka

错误

140

Reference an inaccessible memory area!

clpka驱动的版本信息不能传递给集群本体。

请确认安装的clpka驱动是否为正规版本。

clpka

错误

141

Failed to allocate memory!

物理内存不足。

物理内存不足。请增加物理内存或退出不使用的应用程序。

clpka

错误

142

Invalid argument, %1!

集群本体向clpka驱动传递的信息不正确。

请确认安装的clpka驱动是否为正规版本。

clpka

错误

144

Process (PID=%1) is not set.

试图通过集群之外的进程(%1)操作clpka驱动。

请确认是否存在错误访问clpka驱动的应用程序 (%1)。

10.4. 组资源启动/停止时的详细信息

10.4.1. 浮动IP资源

模块类型

分类

返值

消息

描述

处理方法

fip

错误

3

Command failed. (%1, ret=%2)

命令%1失败。命令的返回值为%2。

请从命令的返回值进行故障分析。

fip

错误

11

Command failed. (%1(%2), errno=%3)

命令的执行发生了错误。

可执行是内存不足或者OS资源不足。请确认。

fip

错误

14

IP address did not exist.

IP地址一览的获取失败。

请确认OS存在的环境是否可以使用TCP/IP协议。

fip

错误

15

IP address was already used.

IP地址已经被使用。

请确认IP地址是否已经被使用。

fip

错误

15

This ip address was already used. IP=%1

指定的IP地址存在于同一网络上。

请确认指定的IP地址是否已经在网络上被使用。

fip

错误

17

Fip interface was not found.

未找到浮动IP界面。

请确认FIP地址与服务器拥有的物理IP地址是否在同一网络。

fip

错误

其他

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

10.4.2. 虚拟IP资源

模块类型

分类

返值

消息

描述

处理方法

vip

错误

3

Command failed. (%1, ret=%2)

命令%1失败。命令的返回值为%2。

请从命令的返回值进行故障分析。

vip

错误

11

Command failed. (%1(%2), errno=%3)

命令的执行发生了错误。

可执行是内存不足或者OS资源不足。请确认。

vip

错误

14

IP address did not exist.

IP地址一览的获取失败。

请确认OS存在的环境是否可以使用TCP/IP协议。

vip

错误

15

IP address was already used.

IP地址已经被使用。

请确认IP地址是否已经被使用。

vip

错误

15

This ip address was already used. IP=%1

指定的IP地址存在于同一网络上。

请确认指定的IP地址是否已经在网络上被使用。

vip

错误

17

Vip interface was not found.

未找指定的界面。

请确认指定的界面是否在同一网络。

vip

错误

其他

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

10.4.3. 磁盘资源

模块类型

分类

返值

消息

描述

处理方法

disk

错误

1

Resource name was invalid. (%1)

资源名不正确。

请确认集群配置信息是否一致。

disk

错误

1

Group name was invalid. (%1)

组资源名不正确。

请确认集群配置信息是否一致。

disk

错误

1

Resource was not in config. (%1)

资源名不在集群配置信息中。

请确认集群配置信息是否一致。

disk

错误

1

Group was not in config. (%1)

组资源名不在集群配置信息中。

请确认集群配置信息是否一致。

disk

错误

1

Getting of config was failed.

集群配置信息的获取失败。

请确认集群配置信息是否存在。

disk

错误

1

Mount point was already mounted. (%1)

设备已经被Mount。

请确认指定的设备是否处于Unmount状态。

disk

错误

1

Mount point was not mounted. (%1)

MountPoint未被Mount。

可执行是对启动完毕的资源进行了手动Unmount。请确认。

disk

错误

1

Mount point was invalid. (%1)

MountPoint不正确。

请确认存在MountPoint。

disk

错误

1

Creating of mount point was failed. (%1)

MountPoint的创建失败。

可执行是内存不足或OS资源不足。请确认。

disk

错误

1

Raw device was already bound. (%1)

RAW设备已经被其他设备绑定。

请确认在集群内是否设置为唯一的RAW设备。

disk

错误

1

Max recover retry over. (%1, retry=%2)

启动设备时超出了重试的最大次数。

请确认集群配置信息是否正确。

disk

错误

1

Command path was invalid. (%1)

执行路径不正确。

请确认命令的执行路径。

disk

错误

1

Command timeout. (%1, timeout=%2)

在内部检出超时。

OS可执行处于高负荷状态。请确认。

disk

错误

1

Command failed. (%1, ret=%2)

命令%1失败。命令的返回值为%2 。

请从命令的返回值分析故障。

disk

错误

1

Command failed. (%1(%2), errno=%3)

设备的操作异常结束。

可执行是内存不足或OS资源不足。请确认。

disk

错误

1

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

10.4.4. NAS资源

模块类型

分类

返值

消息

描述

处理方法

nas

错误

1

Resource name was invalid. (%1)

资源名不正确。

请确认集群配置信息是否一致。

nas

错误

1

Group name was invalid. (%1)

组资源名不正确。

请确认集群配置信息是否一致。

nas

错误

1

Resource was not in config. (%1)

资源名不在集群配置信息中。

请确认集群配置信息是否一致。

nas

错误

1

Group was not in config. (%1)

组资源名不在集群配置信息中。

请确认集群配置信息是否一致。

nas

错误

1

Getting of config was failed.

集群配置信息的获取失败。

请确认集群配置信息是否存在。

nas

错误

1

Mount point was already mounted. (%1)

NAS服务器上的资源已经被Mount。

请确认指定的NAS服务器上的资源是否处于Unmount状态。

nas

错误

1

Mount point was not mounted. (%1)

MountPoint未被Mount。

可执行是对启动完毕的资源进行了手动Unmount。请确认。

nas

错误

1

Mount point was invalid. (%1)

MountPoint不正确。

请确认存在Mount Point。

nas

错误

1

Creating of mount point was failed. (%1)

MountPoint的创建失败。

可执行是内存不足或OS资源不足。请确认。

nas

错误

1

Max recover retry over. (%1, retry=%2)

NAS服务器上资源在Mount时,超出重试的最大次数。

请确认集群配置信息是否正确。

nas

错误

1

Command path was invalid. (%1)

执行路径不正确。

请确认命令的执行路径。

nas

错误

1

Command timeout. (%1, timeout=%2)

在内部检出超时。

OS可执行处于高负荷状态。请确认。

nas

错误

1

Command failed. (%1, ret=%2)

命令%1失败。命令的返回值为%2 。

请从命令的返回值分析故障。

nas

错误

1

Command failed. (%1(%2), errno=%3)

由于命令的执行发生错误。

可执行是内存不足或OS资源不足。请确认。

nas

错误

1

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

10.4.5. EXEC资源

模块类型

分类

返值

消息

描述

处理方法

exec

错误

1

Termination code %1 was returned.

返回0以外的结束编码作为同步脚本或应用程序执行的结果。

对于脚本,可执行是脚本内容有问题。请确认脚本的记述是否正确。
对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。

exec

错误

1

Command was not completed within %1 seconds.

同步脚本或应用程序的执行未在指定时间内正常结束。

对于脚本,可执行是脚本内容有问题。请确认脚本的记述是否正确。
对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。
从日志可以分别限定原因。关于日志输出的设置,请参考"2. 参数的详细信息"。

exec

错误

1

Command was aborted.

同步脚本或应用程序异常结束。

对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。
可执行是内存不足或OS资源不足。请确认。

exec

错误

1

Command was not found. (error=%1)

应用程序不存在。

应用程序的路径可执行不正确。请确认集群配置信息的应用程序的路径。

exec

错误

1

Command string was invalid.

应用程序的路径不正确。

请确认集群配置信息的应用程序的路径。

exec

错误

1

Log string was invalid.

日志输出目标的路径不正确。

请确认集群配置信息的日志输出目标的路径。

exec

错误

1

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

10.4.6. 镜像磁盘资源

模块类型

分类

返值

消息

描述

处理方法

md

错误

1

Need to start mirror agent at first.

镜像Agent未启动。

请确认镜像Agent的启动状态。

md

错误

2

Options or parameters are invalid.

参数不正确。

请确认集群配置信息是否正确。

md

错误

4

Getting of config was failed.

集群配置信息的获取失败。

请确认集群配置信息是否存在。

md

错误

10

NMP size of local server is bigger, can not active

自身服务器的NMP容量比对方服务器的NMP容量大,所以不能启动镜像磁盘资源。

请将对方服务器作为镜像复归源服务器执行强制镜像复归。

md

错误

30

Internal error[status=%1]

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。
并且,如果status 为2359554 时,之前执行的 fsck 等的系统命令的启动,执行结果可执行出现错误。此时,请确认出现错误的命令的结果。

md

错误

77

Mirror disk was not in config.(%1)

镜像磁盘资源的配置信息不正确。

请确认集群配置信息是否正确。

md

错误

79

Failed to get cluster partition information.

集群分区的信息获取失败。

请确认分区是否被确保,磁盘是否被OS识别。

md

错误

80

Mount point was already Mounted.(%1)

MountPoint已经被Mount。

请确认是否对镜像磁盘资源的MountPoint进行了手动Mount。

md

错误

81

The local server has not the latest data.(%1)

自身服务器未保持最新数据。

需要镜像复归。

md

错误

82

Failed to set cluster partition information.

访问集群分区失败。

请确认分区是否被确保,磁盘是否被OS识别。

md

错误

83

Command timeout(%1, timeout=%2)

系统命令的执行超时。

系统命令的执行需要时间。
请调整Mount超时,Unmount超时,fsck超时。设置的调整方法,请参考"2. 参数的详细信息"。

md

错误

84

Mount point was not Mounted. (%1)

镜像磁盘资源未被Mount。

请确认是否手动进行了Unmount。Mount,Unmount的控制由EXPRESSCLUSTER进行,请不要手动Mount,Unmount。

md

错误

87

Creating of Mount point was failed. (%1)

MountPoint的创建失败。

请确认集群配置信息的MountPoint的指定。
请确认MountPoint是否存在。

md

错误

89

Command failed. (%1)

系统命令的执行失败。

请确认mount,unmount,fsck命令是否存在。

10.4.7. 共享型镜像磁盘资源

模块类型

分类

返值

消息

描述

处理方法

hd

错误

1

Need to start mirror agent at first.

镜像Agent未启动。

请确认镜像Agent的启动状态。

hd

错误

2

Options or parameters are invalid.

参数不正确。

请确认集群配置信息是否正确。

hd

错误

4

Getting of config was failed.

集群配置信息的获取失败。

请确认集群配置信息是否存在。

hd

错误

10

NMP size of local server is bigger, can not active

自身服务器的NMP容量比对方服务器的NMP容量大,所以不能启动镜像磁盘资源。

请将对方服务器作为镜像复归源服务器执行强制镜像复归。

hd

错误

12

The local server is not current server.

自身服务器不是当前服务器,所以不能操作资源。

请在自身服务器获得当前权的状态下或先获取当前权再操作资源。

hd

错误

30

Internal error[status=%1]

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

hd

警告

48

The Auto mirror recovery check box is not selected. It is necessary to recover the mirror manually, in order to resume mirroring (%1).

镜像重开中需要通过手动操作复原。

请通过命令或者镜像磁盘列表进行镜像复原。

hd

错误

77

Hybrid disk was not in config.(%1)

共享型镜像磁盘资源的配置信息不正确。

请确认集群配置信息是否正确。

hd

错误

79

Failed to get cluster partition information.

集群分区的信息获取失败。

请确认分区是否被确保,磁盘是否被OS识别。

hd

错误

80

Mount point was already mounted.(%1)

MountPoint已经被Mount。

请确认是否对镜像磁盘资源的MountPoint进行了手动Mount。

hd

错误

81

The local server has not the latest data.(%1)

自身服务器未保持最新数据。

需要镜像复归。

hd

错误

82

Failed to set cluster partition information.

访问集群分区失败。

请确认分区是否被确保,磁盘是否被OS识别。

hd

错误

83

Command timeout(%1, timeout=%2)

系统命令的执行超时。

系统命令的执行需要时间。
请调整Mount超时,Unmount超时,fsck超时。设置的调整方法,请参考"2. 参数的详细信息"。

hd

错误

84

Mount point was not mounted. (%1)

镜像磁盘资源未被Mount。

请确认是否手动进行了Unmount。Mount,Unmount的控制由EXPRESSCLUSTER进行,请不要手动Mount,Unmount。

hd

错误

87

Creating of mount point was failed. (%1)

MountPoint的创建失败。

请确认集群配置信息的MountPoint的指定。
请确认MountPoint是否存在。

hd

错误

89

Command failed. (%1)

系统命令的执行失败。

请确认mount,unmount,fsck命令是否存在。

hd

错误

90

Failed to be current server.

不能获取当前权。

请确认共享型镜像磁盘资源是否已经启动。
如果共享型镜像磁盘正在复原或其他服务器获得当前权正在操作,请稍候。

10.4.8. 卷管理资源

模块类型

分类

返值

消息

描述

处理方法

volmgr

错误

4

Invalid Config.

集群配置信息不正确。

请确认集群配置信息是否一致。

volmgr

错误

10

Already Imported.

目标已经被导入。

请确认集群启动之前目标已经被导出。

volmgr

错误

11

Other Host Imported.(host=%1)

目标在主机%1中已经导入。

请确认集群启动之前目标已导出。

volmgr

错误

12
或者
14

Command("%1") Error.(cmdret=%2)

命令%1失败。命令返回值为%2。

请通过命令返回值进行故障分析。

volmgr

错误

其他

Internal Error.(ret=%1)

发生了其他内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.4.9. 虚拟机资源

模块类型

分类

返值

消息

描述

处理方法

vm

错误

1~6,8

Initialize error occured.

初期化中查出异常。

请确认集群配置信息是否正确。

vm

错误

7

Parameter is invalid.

参数不正确。

请确认集群配置信息是否正确。

vm

错误

9~13

Failed to %s virtual machine %s.

虚拟机的控制失败。

请确认虚拟机的状态。

vm

错误

22

Datastore must be setted.

必须在Cluster WebUI中写入数据存储名。

在Cluster WebUI的虚拟机资源的详细属性标签的[数据存储名]中,写入要保存的虚拟机设置信息的数据存储名,执行[反应设置]。

vm

错误

23

VM configuration file path must be setted.

必须在Cluster WebUI中写入VM构成文件路径。

在Cluster WebUI的虚拟机资源的详细属性标签的[VM构成j文件路径]中,写入存储虚拟机设置信息的路径,执行[反应设置]。

vm

错误

其他

Internal error occured.

发生了其他内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.4.10. 动态域名解析资源

模块类型

分类

返值

消息

描述

处理方法

ddns

错误

1

Initialize error.

初期化中查出异常。

可执行是因为内存不足或OS资源不足。请进行确认。

ddns

错误

2

open() failed.(err=%1)

内部使用的文件打开失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ddns

错误

3

write() failed.(err=%1)

内部使用的文件读入失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ddns

错误

4

closed() failed.(err=%1)

内部使用的文件关闭失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ddns

错误

5

nsupdate command has failed(%1).

Nsupdate命令执行失败。

请根据命令返回值进行故障分析。

ddns

错误

90

Memory allocation error.(err=%1)

内部内存确保错误。

可执行是因为内存不足或OS资源不足。请进行确认。

ddns

错误

92

Time out.

内部查出超时。

OS负载可执行很高。
请确认。

ddns

错误

其他

Internal error.(status=%d)

发生了其他内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.4.11. AWS Elastic IP资源

模块类型

分类

返值

消息

描述

处理方法

awseip

错误

5

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awseip

错误

5

The allocation ID '%1' does not exist

指定的EIP ALLOCATION ID %1不存在。

请确认EIP ALLOCATION ID的设置内容是否正确。

awseip

错误

5

The networkInterface ID '%1' does not exist)

指定的ENI ID %1不存在。

请确认ENI ID的设置内容是否正确。

awseip

错误

6

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awseip

错误

7

ENI ID is invalid.(ENI ID=%1)

ENI ID不正确。

请确认END ID设置的是否正确。
请确认是否错误指定了不同实例的ENI ID。

awseip

错误

99

Internal error. (status=%1)

发生内部错误。

请确认接到Python命令的路径是否接通。
请确认AWS CLI 文件的设置内容是否正确。
可执行是因为内存不足或OS资源不足。请进行确认。

10.4.12. AWS 虚拟IP资源

模块类型

分类

返值

消息

描述

处理方法

awsvip

错误

5

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awsvip

错误

5

The vpc ID '%1' does not exist

指定的VPC ID %1不存在。

请确认VPC ID的设置内容是否正确。

awsvip

错误

5

The networkInterface ID '%1' does not exist)

指定的ENI ID %1不存在。

请确认ENI ID的设置内容是否正确。

awsvip

错误

6

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awsvip

错误

7

The VIP address %1 belongs to a VPC subnet.

VIP地址%1属于VPC的CIDR。

作为VIP地址,需要指定不属于VPC的CIDR的IP地址。
请确认VIP地址。

awsvip

错误

8

Failed to add the VIP address %1.

添加VIP地址%1失败。

请确认VIP的设置。
可执行是因为内存不足或OS资源不足。请进行确认。

awsvip

错误

9

Failed to delete the VIP address %1.

删除VIP地址%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

awsvip

错误

10

The VIP address %1 is already used.

VIP地址%1已被使用。

请确认VIP地址是否已被使用。

awsvip

错误

11

ENI ID is invalid.(ENI ID=%1)

ENI ID不正确。

请确认END ID设置的是否正确。
请确认是否错误指定了不同实例的ENI ID。

awsvip

错误

99

Internal error. (status=%1)

发生内部错误。

请确认接到Python命令的路径是否接通。
请确认AWS CLI 文件的设置内容是否正确。
可执行是因为内存不足或OS资源不足。请进行确认。

10.4.13. AWS DNS资源

模块类型

分类

返值

消息

描述

处理方法

awsdns

错误

5

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awsdns

错误

6

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awsdns

错误

99

Internal error. (status=%1)

发生内部错误。

请确认Python是否正确安装。
请确认AWS CLI 是否正确安装。
可执行是因为内存不足或OS资源不足。请进行确认。

10.4.14. Azure 探头端口资源

模块类型

分类

返值

消息

描述

处理方法

azurepp

错误

5

Probe port %1 is already used.

Probe端口 %1 已被使用。

请确认在自方服务器上Probe端口是否已被开放。

azurepp

错误

6

Failed to open the probe port %1.

打开Probe端口 %1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

azurepp

错误

7

Failed to close the probe port %1.

关闭Probe端口 %1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

azurepp

错误

8

Failed to stop the probe port %1 control process.

停止Probe端口 %1的控制进程失败。

可执行是因为内存不足或OS资源不足。请进行确认。
请重启OS。

azurepp

错误

9

The probe port %1 control process has already started.

Probe端口 %1 的控制进程已启动。

可执行是因为内存不足或OS资源不足。请进行确认。
或可执行是因为之前的停止失败。此时,请停止集群,手动强制结束Probe端口控制进程(clpazureppp)

azurepp

错误

10

Failed to start the probe port %1 control process

启动Probe端口 %1的控制进程失败。

可执行是因为内存不足或OS资源不足。请进行确认。

azurepp

错误

99

Internal error. (status=%1)

发生内部错误。

请确认接到Python命令的路径是否接通。
请确认AWS CLI 文件的设置内容是否正确。
可执行是因为内存不足或OS资源不足。请进行确认。

10.4.15. Azure DNS资源

模块类型

分类

返值

消息

描述

处理方法

azuredns

错误

41

Timeout occurred when Azure CLI command was executed.

[Azure CLI 超时]时间内未执行完Azure CLI命令。

请确认在EXPRESSCLUSTER服务器上是否能正确执行Azure CLI命令。
请确认服务器的负载状况,并排除负载。
请确认[Azure CLI 超时]的值。

azuredns

错误

42

Azure CLI command failed.

执行Azure CLI命令时返回错误。

请确认资源的设置正确。

azuredns

错误

43

Azure CLI command not found.

未找到Azure CLI命令。

请确认[Azure CLI文件路径]是否正确,Azure CLI 是否正确安装。

azuredns

错误

99

Internal error.

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.4.16. Google Cloud 虚拟 IP 资源

模块类型

分类

返回值

消息

描述

处理方法

gcvip

错误

5

Port %1 is already used.

端口%1已经被使用。

请确认在自己服务器的[端口号]上指定的端口是否已经打开。

gcvip

错误

6

Failed to open the port %1.

打开端口%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

gcvip

错误

7

Failed to close the port %1.

关闭端口%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

gcvip

错误

8

Failed to stop the port %1 control process.

停止端口%1控制进程失败。

可执行是因为内存不足或OS资源不足。请进行确认。
请重启OS。

gcvip

错误

9

The port %1 control process has already started.

端口%1控制进程已经启动。

可执行是因为内存不足或OS资源不足。请进行确认。
或者可执行先前的停止失败。此时,请停止集群,手动强制结束端口控制进程(clpgcvipp)。

gcvip

错误

10

Failed to start the port %1 control process.

启动端口%1控制进程失败。

可执行是因为内存不足或OS资源不足。请进行确认。

gcvip

错误

99

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.4.17. Google Cloud DNS 资源

模块类型

分类

返值

消息

描述

处理方法

gcdns

错误

1

Termination code %1 was returned.

返回0以外的结束编码作为同步脚本或应用程序执行的结果。

对于脚本,可执行是脚本内容有问题。请确认脚本的记述是否正确。
对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。

gcdns

错误

1

Command was not completed within %1 seconds.

同步脚本或应用程序的执行未在指定时间内正常结束。

对于脚本,可执行是脚本内容有问题。请确认脚本的记述是否正确。
对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。

gcdns

错误

1

Command was aborted.

同步脚本或应用程序异常结束。

对于应用程序,可执行是应用程序异常结束。请确认应用程序的运转。
可执行是内存不足或OS资源不足。请确认。

gcdns

错误

1

Command was not found. (error=%1)

应用程序不存在。

应用程序的路径可执行不正确。请确认集群配置信息的应用程序的路径。

gcdns

错误

1

Command string was invalid.

应用程序的路径不正确。

请确认集群配置信息的应用程序的路径。

gcdns

错误

1

Log string was invalid.

日志输出目标的路径不正确。

请确认集群配置信息的日志输出目标的路径。

gcdns

错误

1

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

10.4.18. Oracle Cloud 虚拟 IP 资源

模块类型

分类

返回值

消息

描述

处理方法

ocvip

错误

5

Port %1 is already used.

端口%1已经被使用。

请确认在自己服务器的[端口号]上指定的端口是否已经打开。

ocvip

错误

6

Failed to open the port %1.

打开端口%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ocvip

错误

7

Failed to close the port %1.

关闭端口%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ocvip

错误

8

Failed to stop the port %1 control process.

停止端口%1控制进程失败。

可执行是因为内存不足或OS资源不足。请进行确认。
请重启OS。

ocvip

错误

9

The port %1 control process has already started.

端口%1控制进程已经启动。

可执行是因为内存不足或OS资源不足。请进行确认。
或者可执行先前的停止失败。此时,请停止集群,手动强制结束端口控制进程(clpgcvipp)。

ocvip

错误

10

Failed to start the port %1 control process.

启动端口%1控制进程失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ocvip

错误

99

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5. 监视资源异常时的详细信息

10.5.1. IP监视资源

模块类型

分类

返值

消息

描述

处理方法

ipw

错误

5

Ping was failed by timeout. IP=%s...

由于ping命令超时导致失败。

可执行是系统高负荷,内存不足或OS资源不足。请确认。

ipw

错误

31

Ping cannot reach. (ret=%1) IP=%2...

ping命令发出的包未到达。

请确认向该IP地址的 ping命令是否成功。ping命令失败时,请确认拥有该IP地址的机器的状态或网络界面的状态。

ipw

警告

102

Ping was failed. (ret=%1) IP=%2...

ping命令失败。

可执行是内存不足或OS资源不足。请确认。

ipw

警告

106
或者
108~121

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

ipw

警告

189

Internal error. (status=%1)

IP监视资源的监视处理因超时而失败。

可执行是内存不足或OS资源不足。请确认。

10.5.2. 磁盘监视资源

模块类型

分类

返值

消息

描述

处理方法

diskw

错误

12

Ioctl was failed. (err=%1) Device=%2

设备的控制失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。

diskw

错误

14

  1. Open was failed. (err=%1) File=%2

  2. Open was failed. (err=%1) Device=%2

  1. 文件的打开失败。

  2. 设备打开失败。

请确认是否存在文件名相同的目录,监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是内存不足或OS资源不足。请确认。

diskw

错误

16

Read was failed. (err=%1) Device=%2

从设备的读入失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是内存不足或OS资源不足。请确认。

diskw

错误

18

Write was failed. (err=%1) File=%2

向文件的写入失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是内存不足或OS资源不足。请确认。

diskw

错误

41

SG_IO failed. (sg_io_hdr_t info:%1 SG_INFO_OK_MASK: %2)

SG_IO失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘中是否发生了其他异常。

diskw

错误

49

Already bound for other. Rawdevice=%1 Device=%2

RAW设备已经被其他设备绑定。

设置的RAW设备已经能够被其他设备绑定。请通过Cluster WebUI更改RAW设备名称。

diskw

错误

55

Bind was failed. Rawdevice=%1 Device=%2

绑定失败。

绑定失败。请通过Cluster WebUI确认RAW设备名称。

diskw

错误

56

Lseek was failed by timeout. Device=%1

lseek失败。

可执行是系统高负荷,内存不足或OS资源不足。请确认。

diskw

错误

57

Fdatasync was failed by timeout. Device=%1

fdatasync失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

diskw

警告

101

Ioctl was failed by timeout. Device=%1

设备的控制由于超时而失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

diskw

警告

101

  1. Open was failed by timeout. File=%1

  2. Open was failed by timeout. Device=%1

  1. 文件的打开由于超时而失败。

  2. 设备打开由于超时而失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

diskw

警告

101

Read was failed by timeout. Device=%1

从设备的读入由于超时失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

diskw

警告

101

Write was failed by timeout. File=%1

向文件的写入由于超时而失败。

请确认监视对象磁盘是否正确连接,监视对象磁盘的电源是否打开,或者监视对象磁盘内是否发生其他异常。
可执行是系统高负荷,内存不足或OS资源不足。请确认。

diskw

警告

101

Bind was failed. Rawdevice=%1 Device=%2

绑定失败。

绑定失败。请通过Cluster WebUI确认RAW设备名称。

diskw

警告

101

Stat was failed. (err=%1) Device=%2

stat失败。

stat失败。请通过Cluster WebUI·确认设备名称。

diskw

警告

101

Popen was failed. (err=%1)

popen失败。

popen失败。可执行是内存不足或OS资源不足。请确认。

diskw

警告

101
190

Option was invalid.

参数不正确。

请确认集群配置信息是否正确。

diskw

警告

101
190

Internal error. (status=%1)

发生内部错误。

可执行是内存不足或OS资源不足。请确认。

diskw

警告

190

Parameter was invalid. File=%1

指定的文件名不正确。

请不要指定以/dev开头的设备文件。请指定一般的文件。

diskw

警告

190

Device was invalid. Device=%1

指定的设备不正确。

请通过Cluster WebUI确认磁盘监视资源的设备名称。

diskw

警告

109

Ignored disk full error.

无视磁盘已满的错误。

请确认设备的使用状况。

10.5.3. PID监视资源

模块类型

分类

返值

消息

描述

处理方法

pidw

错误

1

Process does not exist. (pid=%1)

进程不存在。

监视对象进程由于某种原因消失。请确认。

pidw

警告

100

Resource %1 was not found.

未找到资源。

请在Cluster WebUI上确认集群配置信息。

pidw

警告

100

Internal error. (status=%1)

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

10.5.4. 用户空间监视资源

模块类型

分类

返值

消息

描述

处理方法

userw

错误

1

Initialize error. (%1)

在进程的初始化时查出异常。

请确认用户空间监视资源依存的驱动程序是否存在,或者是否安装了rpm。依存的驱动程序或rpm根据监视方法而不同。

10.5.5. 自定义监视资源

模块类型

分类

返值

消息

描述

处理方法

genw

错误

1

Initialize error. (status=%d)

初期化中查出异常。

可执行是内存不足或OS资源不足。请确认。

genw

错误

2

Termination code %d was returned.

返回预计之外的值。

请确认集群配置信息是否正确。

genw

错误

3

User was not superuser.

不是root用户。

请以root用户身份登录。

genw

错误

4

Getting of config was failed.

获取集群配置信息失败。

请确认是否存在集群配置信息。

genw

错误

5

Parameter was invalid.

参数不正确。

请确认集群配置信息是否正确。

genw

错误

6

Option was invalid.

参数不正确。

请确认集群配置信息是否正确。

genw

错误

7

Monitor Resource %s was not found.

没有找到资源。

请确认集群配置信息是否正确。

genw

错误

8

Create process failed.

进程生成失败。

可执行是内存不足或OS资源不足。请确认。

genw

错误

9

Process does not exist. (pid=%d)

进程不存在。

请确认是否存在进程。

genw

错误

10

Process aborted. (pid=%d)

进程不存在。

请确认是否存在进程。

genw

错误

11

Asynchronous process does not exist. (pid=%d)

进程不存在。

请确认是否存在进程。

genw

错误

12

Asynchronous process aborted. (pid=%d)

进程不存在。

请确认是否存在进程。

genw

错误

13

Monitor path was invalid.

路径不正确。

请确认集群配置信息是否正确。

genw

错误

其他

Internal error. (status=%d)

发生其他内部错误。

-

10.5.6. 多目的监视资源

模块类型

分类

返值

消息

描述

处理方法

mtw

错误

1

Option was invalid.

参数不正确。

请确认集群配置信息是否正确。

mtw

错误

2

User was not superuser.

不是root用户。

请以root用户身份登录。

mtw

错误

3

Internal error. (status=%d)

发生其他内部错误。

-

10.5.7. 镜像磁盘监视资源

模块类型

分类

返值

消息

描述

处理方法

mdw

错误

1

The Mirror Agent has not started.

镜像Agent未启动。

请确认镜像Agent的启动状态。

mdw

错误

2

Invalid option or parameter.

参数不正确。

请确认集群配置信息是否正确。

mdw

错误

4

Failed to obtain the clutser configuration information.

集群配置信息的获取失败。

请确认集群配置信息是否存在。

mdw

错误

5

The configuration information of the mirror disk monitor resource is invalid.(%s)

镜像磁盘监视资源的配置信息不正确。

请确认集群配置信息是否正确。

mdw

错误

30

Internal error

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

mdw

错误

51

Failed to obtain the remote server status.

获取对方服务器的状态失败。

请确认对方服务器的镜像Agent的启动状态。
请确认镜像磁盘连接的连接状态。
请确认集群配置信息的IP地址是否正确。

mdw

错误

52

The mirror driver of the remote server is not working.

对方服务器的镜像驱动程序异常。

请重启对方服务器。

mdw

错误

53

The mirror driver of the local server is not working.

自身服务器的镜像驱动程序异常。

请重启自身服务器。

mdw

错误

54

Both local and remote drivers are not working.

自身服务器和对方服务器的驱动程序异常。

集群关机后,请重启双方服务器。

mdw

错误

58

Local mirror disk is unknown or not constructed.(%1)

自身服务器的镜像磁盘的状态不明,或者未进行初始镜像构筑。

需要初始镜像构筑。

mdw

错误

63

Local mirror disk is abnormal. (%1)

自身服务器的镜像磁盘异常。

自身服务器未保持最新的数据。需要进行镜像复归操作。

mdw

错误

64

Remote mirror disk is abnormal.(%1)

对方服务器的镜像磁盘异常。

对方服务器未保持最新的数据。需要进行镜像复归操作。

mdw

错误

65

Both local and remote mirror disks are abnormal.(%1)

自身服务器和对方服务器的镜像磁盘异常。

需要进行强制镜像复归操作。

mdw

错误

66

The mirror disk resource was activated on both servers.(%1)

双方服务器上的镜像磁盘资源被启动。

如果检出双方服务器上的镜像磁盘资源被启动,服务器将自动关机。请重启双方服务器。请参考 "syslog,警告,邮件通告消息,SNMP Trap消息,Message Topic"的模块类型rc的事件ID92和《维护指南》"维护信息"-"服务器宕机的发生条件"-"从网络分区复原"。

mdw

错误

99

monitor was timeout

镜像磁盘监视资源的响应超时。
镜像磁盘监视资源出现此故障时,可执行镜像代理将的通信,集群分区上磁盘I/O发生延迟。
请将镜像代理间的通信超时设置为一个较大的值。
并且,如果镜像磁盘监视资源的超时时间比镜像代理间的通信超时短时,请调整设置,将镜像磁盘监视资源的超时设置得比镜像代理间的通信超时时间大。

mdw

警告

100

The mirror recovery is in progress. (%1)

正在镜像复归。

请等待镜像复归结束。

10.5.8. 镜像磁盘连接监视资源

模块类型

分类

返值

消息

描述

处理方法

mdnw

错误

1

The Mirror Agent has not started.

镜像Agent未启动。

请确认镜像Agent的启动状态。

mdnw

错误

2

Invalid option or parameter.

参数不正确。

请确认集群配置信息是否正确。

mdnw

错误

4

Failed to obtain the clutser configuration information.

集群配置信息的获取失败。

请确认集群配置信息是否存在。

mdnw

错误

5

The configuration information of the mirror disk monitor resource is invalid.(%s)

镜像磁盘连接监视资源的配置信息不正确。

请确认集群配置信息是否正确。

mdnw

错误

30

Internal error[status=%1]

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

mdnw

错误

31

The network is disconnected.

镜像磁盘连接被切断。

请确认镜像磁盘连接的连接状态。

mdnw

警告

101

One of the mirror disk connection is disconnected.

多个镜像磁盘连接中,有几个已切断。

请确认镜像磁盘连接的连接状态。

10.5.9. JVM监视资源

模块类型

分类

返值

消息

描述

处理方法

jraw

错误

11

An error was detected in accessing the monitor target.

无法连接监视对象Java VM。

请确认监视对象Java VM是否已启动。

jraw

错误

12

JVM status changed to abnormal. cause = %1.

在Java VM的监视中查出异常。
%1:异常发生原因
GarbageCollection
JavaMemoryPool
Thread
WorkManagerQueue
WebOTXStall

请根据消息,确认在监视对象Java VM上操作的Java应用程序。

jraw

警告

189

Internal error occurred.

发生内部错误。

请执行集群挂起和集群复原。

10.5.10. 系统监视资源

模块类型

分类

返值

消息

描述

处理方法

sraw

错误

11

Detected an error in monitoring system.

在系统资源的监视中查出异常。

资源出现某种异常。请确认。

10.5.11. 进程资源监视资源

模块类型

分类

返值

消息

描述

处理方法

psrw

错误

11

Detected an error in monitoring process resource

在进程资源的监视中查出异常。

资源出现某种异常。请确认。

10.5.12. 共享型镜像磁盘监视资源

模块类型

分类

返值

消息

描述

处理方法

hdw

错误

1

The Mirror Agent has not started.

镜像Agent未启动。

请确认镜像Agent的启动状态。

hdw

错误

2

Invalid option or parameter.

参数不正确。

请确认集群配置信息是否正确。

hdw

错误

4

Failed to obtain the clutser configuration information.

集群配置信息的获取失败。

请确认集群配置信息是否存在。

hdw

错误

5

The configuration information of the hybrid disk monitor resource is invalid.(%s)

镜像磁盘监视资源的配置信息不正确。

请确认集群配置信息是否正确。

hdw

错误

13

Both hybrid disks are pending.

双方服务器的镜像的状态都处于保留状态。

请确认镜像的状态。请执行全面镜像恢复或强行恢复或启动资源。

hdw

错误

15

Local hybrid disk is pending. Remote hybrid disk status is unknown.

无法获取对方共享型镜像磁盘的状态。自身服务器处于保留状态。不能确认哪一方服务器保存有最新数据。

请确认私网状态。如果能够判断本服务器保存有最新数据,请在自身服务器上启动资源。如果能够判断对方服务器保存有最新数据,请启动对方服务器,在对方服务器上启动资源。

hdw

错误

30

Internal error

发生其他内部错误。

可执行是因为内存不足或者OS资源不足。请进行确认。

hdw

错误

51

Failed to obtain the remote server status.

获取对方服务器的状态失败。

请确认对方服务器的镜像Agent的启动状态。
请确认镜像磁盘连接的状态。
请确认集群配置信息的IP地址是否正确。

hdw

错误

52

The mirror driver of the remote server is not working.

对方服务器的镜像驱动程序异常。

请重启对方服务器。

hdw

错误

53

The mirror driver of the local server is not working.

自身服务器的镜像驱动程序异常。

请重启自身服务器。

hdw

错误

54

Both local and remote drivers are not working.

自身服务器和对方服务器的驱动程序异常。

集群关机后,请重启双方服务器。

hdw

错误

58

Local hybrid disk is unknown or not constructed.(%1)

自身服务器的共享型镜像磁盘的状态不明,或者未进行初始镜像构筑。

需要初始镜像构筑。

hdw

错误

63

Local hybrid disk is abnormal. (%1)

自身服务器的共享型镜像磁盘异常

自身服务器未保持最新的数据。需要进行镜像复归操作。

hdw

错误

64

Remote hybrid disk is abnormal.(%1)

对方服务器的共享型镜像磁盘异常

对方服务器未保持最新的数据。需要进行镜像复归操作。

hdw

错误

65

Both local and remote hybrid disks are abnormal.(%1)

自身服务器和对方服务器的共享型镜像磁盘异常

需要进行强制镜像复归操作。

hdw

错误

66

The hybrid disk resource was activated on both servers.(%1)

双方服务器上的共享型镜像磁盘资源被启动。

如果检出双方服务器上的镜像磁盘资源被启动,服务器将自动关机。请重启双方服务器。请参考 "syslog,警告,邮件通告消息,SNMP Trap消息,Message Topic"模块类型rc的事件ID92和《维护指南》"维护信息"-"服务器宕机的发生条件"-"从网络分区复原"。

mdw

错误

99

monitor was timeout

镜像磁盘监视资源的响应超时。
镜像磁盘监视资源出现此故障时,可执行镜像代理将的通信,集群分区上磁盘I/O发生延迟。
请将镜像代理间的通信超时设置为一个较大的值。
并且,如果镜像磁盘监视资源的超时时间比镜像代理间的通信超时短时,请调整设置,将镜像磁盘监视资源的超时设置得比镜像代理间的通信超时时间大。

hdw

警告

100

The mirror recovery is in progress. (%1)

正在镜像复归。

请等待镜像复归结束。

10.5.13. 共享型镜像磁盘连接监视资源

模块类型

分类

返值

消息

描述

处理方法

hdnw

错误

1

The Mirror Agent has not started.

镜像Agent未启动。

请确认镜像Agent的启动状态。

hdnw

错误

2

Invalid option or parameter.

参数不正确。

请确认集群配置信息是否正确。

hdnw

错误

4

Failed to obtain the clutser configuration information.

集群配置信息的获取失败。

请确认集群配置信息是否存在。

hdnw

错误

5

The configuration information of the hybrid disk monitor resource is invalid.(%s)

镜像磁盘连接监视资源的配置信息不正确。

请确认集群配置信息是否正确。

hdnw

错误

30

Internal error[status=%1]

发生其他内部错误。

可执行是内存不足或OS资源不足。请确认。

hdnw

错误

31

The network is disconnected.

镜像磁盘连接被切断。

请确认镜像磁盘连接的连接状态。

hdnw

警告

101

One of the hybrid disk connection is disconnected.

镜像磁盘连接被切断。

请确认镜像磁盘连接的连接状态。

10.5.15. ARP监视资源

模块类型

分类

返值

消息

描述

处理方法

arpw

警告

102

Not found IP address.

找不到IP地址。

请确认监视对象资源的状态。

arpw

警告

103

Socket creation error.

Socket的创建错误。

可执行是内存不足或OS资源不足。请确认。

arpw

警告

104

Socket I/O error.

向网络驱动程序的控制要求错误。

-

arpw

警告

105

Packet send error.

ARP packet的发送错误。

请使用ping等确认能否向目标IP地址路径发送packet。

arpw

警告

180

Memory allocate error.

内部内存的确保错误。

可执行是内存不足或OS资源不足。请确认。

arpw

警告

182

Timeout.

监视超时。

-

arpw

警告

190

Initialize error.

初始化过程中查出异常。

可执行是内存不足或OS资源不足。请确认。

10.5.16. 虚拟IP监视资源

模块类型

分类

返值

消息

描述

处理方法

vipw

警告

102

Invalid interface. (err=%1)

NIC的接口名不正确。

请在Cluster WebUI上确认集群配置信息,请确认NIC的接口名是否存在。

vipw

警告

103

Get IP Address information error. (err=%1)

IPv4或者,IPv6地址Family的Socket地址的获取失败。

请确认内核的配置是否支持TCP/IP联网(IPv4或者,IPv6)。

vipw

警告

104

Socket creation error. (err=%1)

Socket的创建失败。

可执行是内存不足或OS资源不足。请确认。

vipw

警告

105

Socket option error. (err=%1)

Socket的参数设置错误。

可执行是内存不足或OS资源不足。请确认。

vipw

警告

106

Socket bind error. (err=%1)

Socket对发送源IP地址的捆扎错误。

请在Cluster WebUI上确认集群配置信息,请确认NIC的接口名是否存在。

vipw

警告

107

Socket I/O error. (err=%1)

向网络驱动程序的控制要求错误。

可执行是内存不足或OS资源不足。请确认。

vipw

警告

108

Packet send error. (err=%1)

RIP包的发送错误。

请使用ping等确认能否向目标IP地址路径发送包。

vipw

警告

180

Memory allocation error. (err=%1)

内部内存的确保错误。

可执行是内存不足或OS资源不足。请确认。

vipw

警告

182

Timeout.

监视超时。

-

vipw

警告

189

Internal error. (status=%1)

发生其他内部错误。

-

vipw

警告

190

Initialize error.

初始化过程中查出异常。

可执行是内存不足或OS资源不足。请确认。

10.5.17. 虚拟机监视资源

模块类型

分类

返值

消息

描述

处理方法

vmw

错误

1

initialize error occured.

初期化中查出异常。

可执行是因为内存不足或OS资源不足或虚拟环境的问题。请进行确认。

vmw

错误

11

monitor success, virtual machine is not running.

检测到虚拟机停止。

请确认虚拟机的状态。

vmw

错误

12

failed to get virtual machine status.

获取虚拟机状态失败。

请确认虚拟机是否存在。

vmw

错误

13

timeout occured.

监视超时。

OS负载可执行太高。请确认。

10.5.18. 卷管理监视资源

模块类型

分类

返值

消息

描述

处理方法

volmgrw

错误

21

Command was failed. (cmd=%1, ret=%2)

%1命令失败。命令返回值为%2。

命令失败。请确认卷管理器的运行情况。

volmgrw

错误

22
23

Internal error. (status=%1)

发生了其他内部错误。

-

volmgrw

警告

190

Option was invalid.

参数不正确。

请通过Cluster WebUI确认集群配置信息。

volmgrw

警告

191

%1 %2 is %3 !

卷管理器 (%1)的目标 (%2)的状态变为%3。

请确认卷管理器目标状态。

volmgrw

警告

其他

Internal error. (status=%1)

发生了其他内部错误。

-

10.5.19. 动态域名解析监视资源

模块类型

分类

返值

消息

描述

处理方法

ddnsw

错误

8

Ping can not reach virtual host(%1).

虚拟主机名(%1)的ping确认失败。

请确认DNS服务器的状态。

ddnsw

警告

102

open() failed.(err = %1)

内部使用的文件打开失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ddnsw

警告

103

write() failed.(err = %1)

内部使用的文件读入失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ddnsw

警告

104

close() failed.(err = %1)

内部使用的文件关闭失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ddnsw

警告

105

nsupdate command has failed.

Nsupdate命令执行失败。

请根据命令返回值进行故障分析。

ddnsw

警告

106

Ping can not reach the DNS server(%1).

DDNS服务器(%1)的ping确认失败。

请确认DNS服务器的状态。

ddnsw

警告

107

nslookup command has failed.

Nslookup命令执行失败。

请确认DNS服务器的状态。

ddnsw

警告

180

Memory allocation error.(err=%1)

内部内存确保错误。

可执行是因为内存不足或OS资源不足。请进行确认。

ddnsw

警告

182

Time out.

监视超时。

OS负载可执行很高。
请确认。

ddnsw

警告

190

Initialize error.

初期化中查出异常。

可执行是因为内存不足或OS资源不足。请进行确认。

ddnsw

警告

其他

Internal error.(status=%d)

发生了其他内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.20. 进程名监视资源

模块类型

分类

返值

消息

描述

处理方法

psw

错误

11

Process[%1 (pid=%2)]
Down

查出了监视对象进程的消失。

请确认监视对象进程是否正常运行。

psw

错误

12

The number of processes is less than the specified minimum process count.
%1/%2 (%3)

监视对象进程的启动进程数低于指定的下限值。

请确认监视对象进程是否正常运行。

psw

警告

100

Monitoring timeout

监视超时。

OS负载可执行很高。
请确认。

psw

警告

101
190

Internal error

发生了内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

psw

警告

190

Initialize error

查出了初期化中发生的异常。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.21. BMC监视资源

模块类型

分类

返值

消息

描述

处理方法

bmcw

错误

1

Initialize error.

监视启动时发生异常。

可执行是因为内存不足或OS的资源不足,或IPMI驱动程序没有正确安装。请确认。

bmcw

错误

32

Not supported platform. (code=%1)

不支持的平台。

可执行是因为硬件不是NX7700x系列。

bmcw

错误

32

BMC access denied.

监视用IPMI命令但失败了。

请确认IPMI驱动程序的动作状况。

bmcw

错误

64

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS的资源不足。请确认。

bmcw

警告

128

The registered license is invalid. (%1)

注册的license为无效状态。

请注册有效的license。

bmcw

警告

129

The license is not registered. (%1)

没有注册license。

请购买license,并注册。

bmcw

警告

130

The trial license has expired in %.4s/%.2s/%.2s. (%1)

试用版license已到有效期。

请注册有效的license。

bmcw

警告

131

The trial license is valid from %.4s/%.2s/%.2s. (%1)

试用版license未到有效期。

请注册有效的license。

bmcw

警告

132

The registered license is unknown. (%1)

注册的license为不明状态。

请注册有效的license。

bmcw

错误

200

Timeout.

监视超时。

BMC有可执行处于高负载或失控状态。请确认。

10.5.22. Oracle Clusterware同步管理监视资源

模块类型

分类

返值

消息

描述

处理方法

osmw

错误

1

Initialize error.

监视启动时发生异常。

可执行是内存或者OS资源不足。请进行确认。

osmw

错误

1

Oracle Clusterware linkage is not enabled.

Oracle Clusterware联动功能失效。

请设置Oracle Clusterware联动功能为有效。

osmw

错误

32

All registered Oracle processes do not exist.

全部监视对象的进程不存在。

由于某些原因导致监视对象的进程全部消失。请进行确认。

osmw

错误

64

Internal error. (status=%1)

发生内部错误。

可执行是内存或者OS资源不足。请进行确认。

osmw

警告

128

The registered license is invalid. (%1)

注册的license无效。

请注册有效的license。

osmw

警告

129

The license is not registered. (%1)

未注册license。

请购买license后注册。

osmw

警告

130

The trial license has expired in %.4s/%.2s/%.2s. (%1)

试用版license过期。

请注册有效的license。

osmw

警告

131

The trial license is valid from %.4s/%.2s/%.2s. (%1)

尚未到试用版license的有效期。

请注册有效的license。

osmw

警告

132

The registered license is unknown. (%1)

注册的license为不明状态。

请注册有效的license。

osmw

错误

160

Some registered Oracle processes do not exist.

一部分监视对象的进程不存在。

由于某些原因导致监视对象的进程一部分消失。请进行确认。

osmw

错误

200

Timeout.

监视超时。

可执行OS处于高负荷状态。请进行确认。

10.5.23. 浮动IP监视资源

模块类型

分类

返值

消息

描述

处理方法

fipw

错误

4

IP address does not exist.

IP地址不存在。

有可执行是NIC被无效化了。
请用[ifconfig]命令或[ip] 命令,确认FIP地址是否存在。

fipw

错误

5

Adapter Index is different.

Adapter Index不同。

有可执行是NIC被无效化了。
请用[ifconfig]命令或[ip] 命令,确认FIP地址是否存在。

fipw

错误

9

Detected NIC Link Down.

检出NIC的Link Down。

请确认LAN 的缆线是否正常连接。

fipw

警告

106

Failed to get IP address table.

IP地址一览取得失败。

有可执行是内存不足或者OS资源不足。请确认。

fipw

警告

107

Failed to get NIC interface name.

NIC接口名取得失败。

有可执行是内存不足或者OS资源不足。请确认。

fipw

警告

108

Failed to get NIC status.

NIC的状态取得失败。

请确认NIC的设备有没有在设备I/O控制里面进行对应。

fipw

警告

110

Timeout occurred.

发生超时。

请确认用户的负荷状况,去除负荷。

fipw

警告

189

Internal error occurred. (status=%d)

发生内部错误。

有可执行是内存不足或者OS资源不足。请确认。

fipw

警告

190

User is not superuser.

用户没有Root权限。

执行用户没有root权限或者内存不足,OS的资源不足。请确认。

fipw

警告

190

Parameter is invalid.

参数错误。

请确认集群设置信息是否正确。

fipw

警告

190

Failed to get the value from cluster configuration date.

从集群设置信息取得值失败。

请确认集群设置信息是否正确。

10.5.24. AWS Elastic IP监视资源

模块类型

分类

返值

消息

描述

处理方法

awseipw

错误

5

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awseipw

错误

6

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awseipw

错误

7

The EIP address does not exist. (EIP ALLOCATION ID=%1)

不存在EIP地址

有可执行是EIP被切离。请进行确认。

awseipw

警告

105

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awseipw

警告

106

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awseipw

警告

189

Internal error. (status=%1)

发生内部错误。

请确认是否正确安装Python。
请确认是否正确安装AWS CLI。
可执行是因为内存不足或OS资源不足。请进行确认。

10.5.25. AWS 虚拟IP监视资源

模块类型

分类

返值

消息

描述

处理方法

awsvipw

错误

6

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awsvipw

错误

7

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awsvipw

错误

8

The VIP address %1 does not exist.

不存在VIP 地址 %1。

有可执行执行了NIC的无效化。
请使用[ipconfig]命令确认VIP 地址是否存在。

awsvipw

错误

9

The routing for VIP %1 was changed

VIP %1的路径已被更改。

有可执行VIP的路径已被更改。
请确认VPC的Route Tables。

awsvipw

警告

105

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awsvipw

警告

106

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awsvipw

警告

189

Internal error. (status=%1)

发生内部错误。

请确认是否正确安装Python。
请确认是否正确安装AWS CLI。
可执行是因为内存不足或OS资源不足。请进行确认。

10.5.26. AWS AZ监视资源

模块类型

分类

返值

消息

描述

处理方法

awsazw

错误

4

Failed to monitor the availability zone %1.

监视可用区域 %1失败。

可执行是因为服务器所属的可用区域有问题。请进行确认。

awsazw

错误

5

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awsazw

错误

5

Invalid availability zone: [%1]

指定的可用区域%1不存在。

请确认可用区域的设置内容是否正确。

awsazw

错误

6

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awsazw

警告

105

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awsazw

警告

105

Invalid availability zone: [%1]

指定的可用区域%1不存在。

请确认可用区域的设置内容是否正确。

awsazw

警告

106

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awsazw

警告

189

Internal error. (status=%1)

发生内部错误。

请确认是否正确安装Python。
请确认是否正确安装AWS CLI。
可执行是因为内存不足或OS资源不足。请进行确认。

10.5.27. AWS DNS监视资源

模块类型

分类

返值

消息

描述

处理方法

awsdnsw

错误

5

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awsdnsw

错误

6

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awsdnsw

错误

7

The resource record set in Amazon Route 53 does not exist.

Amazon Route 53中不存在资源记录集。

监视对象的资源记录集可执行已经被删除。
请确认Amazon Route 53中该资源记录集的登录状态。

awsdnsw

错误

8

IP address different from the setting is registered in the resource record set of Amazon Route 53.

Amazon Route 53的资源记录集里登录了与设置值不同的IP地址。

请确认监视对象的资源记录集中登录的IP地址是否正确。

awsdnsw

错误

9

Failed to resolve domain name.

资源记录集的域名解析确认失败。

域名解析失败。请确认解析器的设置或确认网络没有问题。
由于资源记录集名中使用了转义字符时会使域名解析失败,请关闭监视资源的[执行域名解析检查]参数。

awsdnsw

错误

10

IP address which is resolved domain name from the DNS resolver is defferent from the setting.

域名解析结果的IP地址和设置不同。

请确认DNS解析器的设置正确,hosts文件中不存在意图外的条目。

awsdnsw

警告

105

Failed in the AWS CLI command.

AWS CLI 命令执行失败。

请确认AWS CLI 文件的设置内容是否正确。

awsdnsw

警告

106

Timeout occurred.

发生超时。

请确认服务器的负载状况,并排除负载。

awsdnsw

警告

189

Internal error. (status=%1)

发生内部错误。

请确认是否正确安装Python。
请确认是否正确安装AWS CLI。
可执行是因为内存不足或OS资源不足。请进行确认。

10.5.28. Azure 探头端口监视资源

模块类型

分类

返值

消息

描述

处理方法

azureppw

错误

4

Probe port %1 is closed.

Probe端口 %1已被阻塞。

Probe端口已被堵塞。
请确认服务器的网络设置。

azureppw

错误

5

Timeout of waiting probe port %1 occurred.

发生probe等待超时。

在Probe等待的超时内,无法接收Azure 的负载均衡器发出的Probe。
请确认网络适配器是否发生错误或网络是否正确连接。

azureppw

错误

105

Timeout of waiting probe port %1 occurred.

发生probe等待超时。

在Probe等待的超时内,无法接收Azure 的负载均衡器发出的Probe。
请确认网络适配器是否发生错误或网络是否正确连接。

azureppw

警告

189

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.29. Azure 负载均衡监视资源

模块类型

分类

返值

消息

描述

处理方法

azurelbw

错误

4

On server %1, probe port %2 is opened.

在服务器 %1上已开放Probe端口 %2。

在备用服务器上已开放Probe端口。
请不要在备用服务器上开放Probe端口。

azurelbw

警告

189

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.30. Azure DNS监视资源

模块类型

分类

返值

消息

描述

处理方法

azurednsw

错误

11

Query to the DNS server failed.

要求Microsoft Azure的DNS服务器提供域名解析,但是失败了。

请确认EXPRESSCLUSTER服务器是否能与Microsoft Azure 的DNS服务器进行通信。
请检查DNS区域和记录集是否从Microsoft Azure门户的DNS区域进行了注册。

azurednsw

错误

12

IP address different from the setting is registered in the record set of the Azure DNS zone.

DNS服务器的记录集有可执行从外部被删除或重写。

请检查Microsoft Azure门户的DNS区域中的记录集。

azurednsw

警告

189

Internal error.

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.31. Google Cloud 虚拟 IP 监视资源

模块类型

分类

返回值

消息

描述

处理方法

gcvipw

错误

4

Port %1 is closed.

关闭端口%1。

关闭[端口号]中指定的端口。
请确认服务器的网络设置。

gcvipw

错误

5

Timeout of waiting port %1 occurred.

发生存活侦测超时。

在[存货侦测超时]时间内不能收到来自负载平衡器的存活侦测。
请确认网络适配器中是否没有错误或网络是否正确连接。
或者请延长[存活侦测超时]。

gcvipw

错误

6

Monitoring port %1 failed.

监视端口%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

gcvipw

错误

7

Monitoring port %1 is frozen.

停止端口%1的监视。

可执行是因为内存不足或OS资源不足。请进行确认。

gcvipw

错误

99

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

gcvipw

警告

105

Timeout of waiting port %1 occurred.

发生存活侦测超时。

在[存货侦测超时]时间内不能收到来自负载平衡器的存活侦测。
请确认网络适配器中是否没有错误或网络是否正确连接。
或者请延长 [存活侦测超时]。

gcvipw

警告

189

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.32. Google Cloud 负载均衡监视资源

模块类型

分类

返回值

消息

描述

处理方法

gclbw

错误

4

On server %1, port %2 is opened.

服务器%1中打开端口%2。

待机服务器中打开[端口号]中指定的端口。
请设置成在待机服务器中不打开端口。

gclbw

错误

5

Monitoring port %1 failed.

监视端口%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

gclbw

错误

99

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

gclbw

警告

189

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.33. Google Cloud DNS 监视资源

模块类型

分类

返值

消息

描述

处理方法

gcdnsw

错误

1

Initialize error. (status=%d)

初期化中查出异常。

可执行是内存不足或OS资源不足。请确认。

gcdnsw

错误

2

Termination code %d was returned.

返回预计之外的值。

请确认集群配置信息是否正确。

gcdnsw

错误

3

User was not superuser.

不是root用户。

请以root用户身份登录。

gcdnsw

错误

4

Getting of config was failed.

获取集群配置信息失败。

请确认是否存在集群配置信息。

gcdnsw

错误

5

Parameter was invalid.

参数不正确。

请确认集群配置信息是否正确。

gcdnsw

错误

6

Option was invalid.

参数不正确。

请确认集群配置信息是否正确。

gcdnsw

错误

7

Monitor Resource %s was not found.

没有找到资源。

请确认集群配置信息是否正确。

gcdnsw

错误

8

Create process failed.

进程生成失败。

可执行是内存不足或OS资源不足。请确认。

gcdnsw

错误

9

Process does not exist. (pid=%d)

进程不存在。

请确认是否存在进程。

gcdnsw

错误

10

Process aborted. (pid=%d)

进程不存在。

请确认是否存在进程。

gcdnsw

错误

11

Asynchronous process does not exist. (pid=%d)

进程不存在。

请确认是否存在进程。

gcdnsw

错误

12

Asynchronous process aborted. (pid=%d)

进程不存在。

请确认是否存在进程。

gcdnsw

错误

13

Monitor path was invalid.

路径不正确。

请确认集群配置信息是否正确。

gcdnsw

错误

其他

Internal error. (status=%d)

发生其他内部错误。

-

10.5.34. Oracle Cloud 虚拟 IP 监视资源

模块类型

分类

返回值

消息

描述

处理方法

ocvipw

错误

4

Port %1 is closed.

关闭端口%1。

关闭[端口号]中指定的端口。
请确认服务器的网络设置。

ocvipw

错误

5

Timeout of waiting port %1 occurred.

发生存活侦测超时。

在[存货侦测超时]时间内不能收到来自负载平衡器的存活侦测。
请确认网络适配器中是否没有错误或网络是否正确连接。
或者请延长[存活侦测超时]。

ocvipw

错误

6

Monitoring port %1 failed.

监视端口%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

ocvipw

错误

7

Monitoring port %1 is frozen.

停止端口%1的监视。

可执行是因为内存不足或OS资源不足。请进行确认。

ocvipw

错误

99

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

ocvipw

警告

105

Timeout of waiting port %1 occurred.

发生存活侦测超时。

在[存货侦测超时]时间内不能收到来自负载平衡器的存活侦测。
请确认网络适配器中是否没有错误或网络是否正确连接。
或者请延长[存活侦测超时]。

ocvipw

警告

189

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.35. Oracle Cloud 负载均衡监视资源

模块类型

分类

返回值

消息

描述

处理方法

oclbw

错误

4

On server %1, port %2 is opened.

服务器%1中打开端口%2。

待机服务器中打开[端口号]中指定的端口。
请设置成在待机服务器中不打开端口。

oclbw

错误

5

Monitoring port %1 failed.

监视端口%1失败。

可执行是因为内存不足或OS资源不足。请进行确认。

oclbw

错误

99

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

oclbw

警告

189

Internal error. (status=%1)

发生内部错误。

可执行是因为内存不足或OS资源不足。请进行确认。

10.5.36. 监视选项监视资源

监视选项监视资源使用共同的信息。模块类型根据每个监视选项监视资源而不同。

监视选项监视资源

模块类型

DB2监视资源

db2w

FTP监视资源

ftpw

HTTP监视资源

httpw

IMAP4监视资源

imap4w

MySQL监视资源

mysqlw

NFS监视资源

nfsw

ODBC监视资源

odbcw

Oracle监视资源

oraclew

POP3监视资源

pop3w

PostgreSQL监视资源

psqlw

Samba监视资源

sambaw

SMTP监视资源

smtpw

SQL Server监视资源

sqlserverw

Sybase监视资源

sybasew

Tuxedo监视资源

tuxw

Weblogic监视资源

wlsw

Websphere监视资源

wasw

WebOTX监视资源

otxw

模块类型

分类

返值

消息

描述

处理方法

(别表)

错误

5

Failed to connect to %1 server. [ret=%2]

连接监视对象失败。
在[%1]中,加入应用程序名。

请确认监视对象的状态。

(别表)

错误

7

Failed to execute SQL statement (%1). [ret=%2]

SQL文(%1)执行失败。
在[%1]中,加入监视对象。

请在Cluster WebUI上确认集群配置信息。

(别表)

错误

8

Failed to access with %1

和监视对象的数据访问失败。
在[%1]中,加入监视对象。

请确认监视对象的状态。

(别表)

错误

9

Detected error in %1.

监视对象异常。
在[%1]中,加入监视对象。

请确认监视对象的状态。

(别表)

警告

104

Detected function exception. [%1, ret=%2]

查出异常。
%1中加入监视对象。
请在Cluster WebUI上确认集群配置信息。
可执行是OS处于高负荷状态。请确认。

(别表)

警告

106

Detected authority error.

用户验证失败。

请确认用户名,密码,访问权限。

(别表)

警告

111

Detected timeout error.

和监视对象通信超时。

可执行是OS处于高负荷状态。请确认。

(别表)

警告

112

Can not found install path. (install path=%1)

不能找到安装路径。
在%1中,加入安装路径。

请确认安装路径所在的位置。

(别表)

警告

113

Can not found library. (libpath=%1, errno=%2)

不能从指定的位置加载库。

请确认库所在的位置。

(别表)

警告

171

Detected a monitor delay in monitoring %1. (timeout=%2*%3 actual-time=%4 delay warning rate=%5)

%1的监视中检测到监视延迟。当前的超时值为%2(秒) x%3(每秒的tick count)。延迟检测时的实测值为%4(tick count),超出了延迟警告比率%5(%)。

请确认查出监视延迟的服务器负载情况并清除负载。
可执行查出监视超时时,需延长监视超时。

(别表)

信息

181

The collecting of detailed information triggered by monitor resource %1 error has been started (timeout=%2).

开始采集监视资源检测到$1监视异常时的详细信息。超时为%2秒。

-

(别表)

信息

182

The collection of detailed information triggered by monitor resource %1 error has been completed.

完成采集监视资源检测到%1监视异常时的详细信息。

-

(别表)

警告

183

The collection of detailed information triggered by monitor resource %1 error has been failed (%2).

监视资源检测到%1监视异常时的详细信息采集失败。(%2)

-

(别表)

警告

189

Internal error. (status=%1)

查出内部错误。

-

(别表)

警告

190

Init error. [%1, ret=%2]

初始化中检查出异常。
%1中加入
license,library, XML,share memory,log其中一个。

可执行是OS处于高负荷状态。请确认。

(别表)

警告

190

Get config information error. [ret=%1]

获取设置信息失败。

请在Cluster WebUI上确认集群配置信息。

(别表)

警告

190

Invalid parameter.

Config文件/Policy文件的设置信息不正确。
命令的参数不正确。

请在Cluster WebUI上确认集群配置信息。

(别表)

警告

190

Init function error. [%1, ret=%2]

初始化中检查出函数异常。
%1:执行函数名称

可执行是OS处于高负荷状态。请确认。

(别表)

警告

190

User was not superuser.

用户没有Root权限。

可执行是执行用户没有root权限,或内存不足或OS的资源不足。请确认。

(别表)

警告

190

The license is not registered.

License未注册。

请确认注册了正确的license。

(别表)

警告

190

The registration license overlaps.

注册的License重复了。

请确认注册了正确的license。

(别表)

警告

190

The license is invalid.

License不正确。

请确认注册了正确的license。

(别表)

警告

190

The license of trial expired by %1.

试用版的License已过期。
在%1中,加入使用期限。

-

(别表)

警告

190

The license of trial effective from %1.

试用版的License还未到试用开始时间。
在%1中,加入使用期限。

-

10.6. JVM监视资源输出日志消息

以下消息为JVM监视资源独有的日志文件——JVM操作日志,JVM LB联动日志的消息列表。

生成位置如下。

JVM操作日志:< EXPRESSCLUSTER安装路径>/log/ha/jra/jragent*.log (*是从0开始的数字)

JVM LB联动日志:<EXPRESSCLUSTER安装路径>/log/ha/jra/lbadmin.log

10.6.1. JVM操作日志

消息

发生原因

处理方法

Failed to write the %1$s.stat.

JVM统计日志写入失败。
%1$s.stat:JVM统计日志文件名

请确认磁盘剩余空间是否足够。

%1$s: analyze finish[%4$s]. state = %2$s, cause = %3$s

(监视对象Java VM状态异常时)监视对象Java VM的资源使用量超过阈值。
%1$s:监视对象Java VM名称
%2$s:监视对象Java VM状态
(1=正常,0=异常)
%3$s:发生异常时的错误部分
%4$s:测量线程名

请修改在监视对象Java VM上运行的Java应用程序。

thread stopped by UncaughtException.

JVM监视资源的线程已停止。

请执行集群挂起/集群复原,重新启动JVM监视资源。

thread wait stopped by Exception.

JVM监视资源的线程已停止。

请执行集群挂起/集群复原,重新启动JVM监视资源。

%1$s: monitor thread can't connect to JVM.

无法连接监视对象Java VM。
%1$s:监视对象Java VM名称

请确认监视对象Java VM是否已启动。

%1$s: monitor thread can't get the JVM state.

无法从监视对象Java VM获取资源使用量。
%1$s:监视对象Java VM名称

请确认监视对象Java VM是否已启动。

%1$s: JVM state is changed [abnormal -> normal].

监视对象Java VM状态由异常变为正常。
%1$s:监视对象Java VM名称

-

%1$s: JVM state is changed [normal -> abnormal].

监视对象Java VM状态由正常变为异常。
%1$s:监视对象Java VM名称

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: Failed to connect to JVM.

无法连接监视对象Java VM。
%1$s:监视对象Java VM名称

请确认监视对象Java VM是否已启动。

Failed to write exit code.

JVM监视资源无法写入记录退出代码的文件。

请确认磁盘剩余空间是否足够。

Failed to be started JVM Monitor.

启动JVM监视资源失败。

请确认JVM操作日志,消除无法启动的原因后,执行集群挂起/集群复原,重新启动JVM监视资源。

JVM Monitor already started.

JVM监视资源已启动。

请执行集群挂起/集群复原,重新启动JVM监视资源。

%1$s: GARBAGE_COLLECTOR_MXBEAN_DOMAIN_TYPE is invalid.

从监视对象Java VM获取GC信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: GarbageCollectorMXBean is invalid.

从监视对象Java VM获取GC信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Failed to measure the GC stat.

从监视对象Java VM获取GC信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: GC stat is invalid. last.getCount = %2$s, last.getTime = %3$s, now.getCount = %4$s, now.getTime = %5$s.

从监视对象Java VM获取GC发生次数,测量执行时间失败。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:上次测量时的GC总执行时间
%4$s:此次测量时的GC发生次数
%5$s:此次测量时的GC总执行时间

请确认监视对象Java VM的操作环境是否正确。

%1$s: GC average time is too long. av = %6$s, last.getCount = %2$s, last.getTime = %3$s, now.getCount = %4$s, now.getTime = %5$s.

监视对象Java VM中GC的平均执行时间超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:上次测量时的GC总执行时间
%4$s:此次测量时的GC发生次数
%5$s:此次测量时的GC总执行时间
%6$s:上次测量到此次测量之间,GC的平均执行时间

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: GC average time is too long compared with the last connection. av = %6$s, last.getCount = %2$s, last.getTime = %3$s, now.getCount = %4$s, now.getTime = %5$s.

重新连接监视对象Java VM后,监视对象Java VM中,GC的平均执行时间超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:上次测量时的GC总执行时间
%4$s:此次测量时的GC发生次数
%5$s:此次测量时的GC总执行时间
%6$s:上次测量到此次测量之间,GC的平均执行时间

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: GC count is too frequently. count = %4$s last.getCount = %2$s, now.getCount = %3$s.

监视对象Java VM中GC的发生次数超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:此次测量时的GC发生次数
%4$s:上次测量到此次测量之间的GC发生次数

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: GC count is too frequently compared with the last connection. count = %4$s last.getCount = %2$s, now.getCount = %3$s.

重新连接监视对象Java VM后,监视对象Java VM中,GC的发生次数超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的GC发生次数
%3$s:此次测量时的GC发生次数
%4$s:上次测量到此次测量之间的GC发生次数

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: RuntimeMXBean is invalid.

从监视对象Java VM获取信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Failed to measure the runtime stat.

从监视对象Java VM获取信息失败。
%1$s:监视对象Java VM名称
请确认监视对象Java VM的操作环境是否正确。
请确认监视对象Java VM中,处理负载是否过高。

%1$s: MEMORY_MXBEAN_NAME is invalid. %2$s, %3$s.

从监视对象Java VM获取内存信息失败。
%1$s:监视对象Java VM名称
%2$s:内存池的名称
%3$s:内存的名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: MemoryMXBean is invalid.

从监视对象Java VM获取内存信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Failed to measure the memory stat.

从监视对象Java VM获取内存信息失败。
%1$s:监视对象Java VM名称
请确认监视对象Java VM的操作环境是否正确。
请确认监视对象Java VM中,处理负载是否过高。

%1$s: MemoryPool name is undefined. memory_name = %2$s.

无法从监视对象Java VM获取内存信息。
%1$s:监视对象Java VM名称
%2$s:测量对象的Java内存池名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: MemoryPool capacity is too little. memory_name = %2$s, used = %3$s, max = %4$s, ratio = %5$s%.

监视对象Java VM的Java内存池剩余空间小于阈值。
%1$s:监视对象Java VM名称
%2$s:测量对象的Java内存池名称
%3$s:Java内存池的使用量
%4$s:Java内存池的最大使用量
%5$s:Java内存池的利用率

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: THREAD_MXBEAN_NAME is invalid.

从监视对象Java VM获取线程信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: ThreadMXBean is invalid.

从监视对象Java VM获取线程信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Failed to measure the thread stat.

从监视对象Java VM获取线程信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: Detect Deadlock. threads = %2$s.

监视对象Java VM的线程发生死锁。
%1$s:监视对象Java VM名称
%2$s:死锁的线程ID

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: Thread count is too much(%2$s).

监视对象Java VM中启动的线程数超过阈值。
%1$s:监视对象Java VM名称
%2$s:测量时的线程启动数

请修改在监视对象Java VM上运行的Java应用程序。

%1$s: ThreadInfo is null.Thread count = %2$s.

从监视对象Java VM获取线程信息失败。
%1$s:监视对象Java VM名称
%2$s:测量时的线程启动数

请确认监视对象Java VM的版本的操作环境是否正确。

%1$s: Failed to disconnect.

切断监视对象Java VM失败。
%1$s:监视对象Java VM名称

-

%1$s: Failed to connect to WebLogicServer.

连接监视对象WebLogic Server失败。
%1$s:监视对象Java VM名称

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Failed to connect to Sun JVM.

连接监视对象Java VM,WebOTX失败。
%1$s:监视对象Java VM名称

请修改在监视对象Java VM,WebOTX上运行的Java应用程序。

Failed to open the %1$s.

输出JVM统计日志失败。
%1$s:HA/JVMSaverJVM 统计日志文件名称

请确认磁盘剩余空间是否足够,是否超出能打开文件的上限数。

%1$s: Can't find monitor file.

无法监视。
%1$s:监视对象Java VM名称

-

%1$s: Can't find monitor file, monitor stopped[thread:%2$s].

停止监视。
%1$s:监视对象Java VM名称
%2$s:测量线程的类型

-

%1$s: Failed to create monitor status file.

创建内部文件失败。
%1$s:监视对象Java VM名称

请确认是否超出磁盘剩余空间或卷的最大文件数。

%1$s: Failed to delete monitor status file.

删除内部文件失败。
%1$s:监视对象Java VM名称

请确认硬盘是否有问题。

%1$s: com.bea:Type=ServerRuntime is invalid.

从监视对象Java VM获取信息失败。
%1$s:监视对象Java VM名称

请确认监视对象Java VM的操作环境是否正确。

%1$s: WorkManagerRuntimeMBean or ThreadPoolRuntimeMBean is invalid.

从监视对象WebLogic Server获取信息失败。
%1$s:监视对象Java VM名称

请确认监视对象WebLogic Server的操作环境是否正确。

%1$s: Failed to measure the WorkManager or ThreadPool stat.

从监视对象WebLogic Server获取信息失败。
%1$s:监视对象Java VM名称

请确认监视对象WebLogic Server的操作环境是否正确。

%1$s: ThreadPool stat is invalid. last.pending = %2$s, now.pending = %3$s.

测量监视对象WebLogic Server线程池的待机请求数失败。
%1$s:监视对象Java VM名称
%2$s:上次测量时的待机请求数
%3$s:此次测量时的待机请求数

请确认监视对象WebLogic Server版本的操作环境是否正确。

%1$s: WorkManager stat is invalid. last.pending = %2$s, now.pending = %3$s.

测量监视对象WebLogic Server运行管理的待机请求数失败。
%1$s:监视对象Java VM名称
%2$s:上次测量时的待机请求数
%3$s:此次测量时的待机请求数

请确认监视对象WebLogic Server版本的操作环境是否正确。

%1$s: PendingRequest count is too much. count = %2$s.

监视对象WebLogic Server线程池的待机请求数超过阈值。
%1$s:监视对象Java VM名称
%2$s:此次测量时的待机请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest increment is too much. increment = %4$s%%, last.pending = %2$s, now.pending = %3$s.

监视对象WebLogic Server线程池的待机请求数增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的待机请求数
%3$s:此次测量时的待机请求数
%4$s:上次测量到此次测量之间,待机请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest increment is too much compared with the last connection. increment = %4$s, last.pending = %2$s, now.pending = %3$s.

与监视对象WebLogic Server重新连接后,监视对象WebLogic Server线程池的待机请求数增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时的待机请求数
%3$s:此次测量时的待机请求数
%4$s:上次测量到此次测量之间,待机请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Throughput count is too much. count = %2$s.

监视对象WebLogic Server线程池在单位时间内执行的请求数超过阈值。
%1$s:监视对象Java VM名称
%2$s:此次测量时在单位时间内执行的请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Throughput increment is too much. increment = %4$s, last.throughput = %2$s, now.throughput = %3$s.

监视对象WebLogic Server线程池在单位时间内执行的请求数增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时在单位时间内执行的请求数
%3$s:此次测量时在单位时间内执行的请求数
%4$s:上次测量到此次测量之间,单位时间内执行请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Throughput increment is too much compared with the last connection. increment = %4$s, last.throughput = %2$s, now.throughput = %3$s.

与监视对象WebLogic Server重新连接后,监视对象WebLogic Server线程池在单位时间内执行请求数的增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:上次测量时在单位时间内执行的请求数
%3$s:此次测量时在单位时间内执行的请求数
%4$s:上次测量到此次测量之间,单位时间内执行请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest count is too much. appName = %2$s, name = %3$s, count = %4$s.

监视对象WebLogic Server运行管理的待机请求数超过阈值。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名
%4$s:待机请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest increment is too much. appName = %2$s, name = %3$s, increment = %6$s%%, last.pending = %4$s, now.pending = %5$s.

监视对象WebLogic Server运行管理的待机请求增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名
%4$s:上次测量时的待机请求数
%5$s:此次测量时的待机请求数
%6$s:上次测量到此次测量之间,待机请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: PendingRequest increment is too much compared with the last connection. AppName = %2$s, Name = %3$s, increment = %6$s, last.pending = %4$s, now.pending = %5$s.

与监视对象WebLogic Server重新连接后,监视对象WebLogic Server运行管理的待机请求增量超过阈值。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名
%4$s:上次测量时的待机请求数
%5$s:此次测量时的待机请求数
%6$s:上次测量到此次测量之间,待机请求数的增量

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Can't find WorkManager. appName = %2$s, name = %3$s.

无法从WebLogic Server获取已设置的运行管理。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名

请修改[监视对象WebLogic的运行管理]的设置。

%1$s: analyze of average start[%2$s].

平均值分析已开始。
%1$s:监视对象Java VM名称
%2$s:线程名

-

%1$s: analyze of average finish[%2$s].state = %3$s.

平均值分析已结束。
%1$s:监视对象Java VM名称
%2$s:线程名
%3$s:监视对象的状态

-

%1$s: Average of PendingRequest count is too much. count = %2$s.

监视对象WebLogic Server线程池的待机请求数的平均值超过阈值。
%1$s:监视对象Java VM名称]
%2$s:此次测量时的待机请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Average of Throughput count is too much. count = %2$s.

监视对象WebLogic Server线程池在单位时间内执行的请求数平均值超过阈值。
%1$s:监视对象Java VM名称
%2$s:此次测量时在单位时间内执行的请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

%1$s: Average of PendingRequest count is too much. AppName = %2$s, Name = %3$s, count = %4$s.

监视对象WebLogic Server运行管理的待机请求数平均值超过阈值。
%1$s:监视对象Java VM名称
%2$s:应用程序名
%3$s:运行管理名
%4$s:此次测量时的待机请求数

请修改在监视对象WebLogic Server上运行的Java应用程序。

Error: Failed to operate clpjra_bigip.[%1$s]

%1$s:错误代码

请修改设定内容。

action thread execution did not finish. action is alive = %1$s.

[命令]超时。
%1$s:通过[命令]设定的执行文件名
请强制结束[命令]。
请更改[命令超时]。

请排除高负荷等超时原因。

%1$s: Failed to connect to Local JVM. cause = %2$s.

JBoss连接失败。
%1$s:监视对象名
%2$s:失败的详细原因
详细原因为以下任一种。
・Failed to found tool.jar, please set jdk's path for the java path.
・Load tool.jar exception
・Get Local JVM url path exception
・Failed to get process name
・Failed to connect to JBoss JVM.
请更改[Java安装路径],[进程名]。
请不要在[Java安装路径]设定JRE,而是设定JDK。
请确认JBoss已经启动。

10.6.2. JVM LB联动日志

消息

发生原因

处理方法

lbadmin command start.

开始执行LB联动的命令。

-

lbadmin command finish.

已结束执行LB联动的命令。

-

Into HealthCheck mode.

存活侦测(Health Check)功能有效。

-

Into Weight mode.

监视对象Java VM的负载计算功能有效。

-

The PID of lbadmin.jar is "%1".

LB联动进程名的进程ID。
%1:lbadmin.jar的进程ID

-

Thread wait stopped by Exception

测定备份已中止。

-

Rename Command succeeded.

成功重命名HTML文件。

-

Rename Command failed.

重命名HTML文件失败。

请确认HTML文件名和HTML重命名的文件名。

%1 doesn't exist.

重命名源HTML文件不存在。
%1:HTML文件名

请确认HTML文件名。

%1 already exists.

已存在重命名源的HTML文件。
%1:HTML重命名源文件名

请确认HTML重命名目标文件名。

Can't rename file:%1.

重命名HTML文件失败。
%1:HTML文件名

请确认HTML重命名目标文件名

The number of retries exceeded the limit.

HTML文件重命名处理超过重试次数上限。

请确认HTML重命名目标文件名。

The percent of the load is "%1".

完成监视对象Java VM的负载计算。
%1:监视对象Java VM的负载

-

stat log (%1) doesn't exist.

没有JVM统计日志文件。
%1:JVM统计日志文件名

请执行集群挂起/集群复原,重新启动Java Resource Agent。

stat log (%1:) cannot be opened for reading.

无法打开JVM统计日志文件。
%1:JVM统计日志文件名

请执行集群挂起/集群复原,重新启动Java Resource Agent。

format of stat log (%1) is wrong.

JVM统计日志文件内容非法。
%1:JVM统计日志文件名

删除JVM统计日志文件后,请执行集群挂起/集群复原,重新启动Java Resource Agent。

Failed to get load of application server.

从JVM统计日志文件获取负载计算的数据失败。

请正确设置监视对象Java VM的负载计算。

Can't find lock file(%1s*.stat.lck), maybe HA/JVMSaver did not start yet.

未启动JVM监视。
%1:内部文件名

请启动JVM监视。