功能目标

软删除主要用于防范数据被错误的永久删除。具体而言,软删除应该具有如下几个功能:

  • 当用户删除某个指定的表后,该表变得不可访问。
  • 被删除的表其数据不会立即物理清除,而是会保留一段时间。
  • 被删除的表过期(超过保留时间)后,数据会从物理上做彻底的删除,以释放资源。
  • 未过期的表可以通过一定的方式恢复,恢复成功后又可以像正常的表一样进行读写访问。

操作命令

shell端提供了droprecall命令支持软删除。

使用drop命令删除表

使用方式:

  1. drop <app_name> [-r|--reserve_seconds num]

drop命令用于删除一个表,通过-r选项指定数据的保留时间,从删除时间开始计算,单位为秒。如果不指定,则使用配置文件hold_seconds_for_dropped_app指定的值,默认为7天。

表删除成功后:

  • 再次访问该表,将会返回ERR_OBJECT_NOT_FOUND,提示表不存在。
  • 通过shell的ls命令看不到被删除的表。
  • 通过shell的ls -a命令可以看到被删除的表。
  • 被删除的表的ID不会被重用,以防止恢复时出现ID冲突。
  • 表删除后,可以新建同名表,当客户端访问这个表名时,访问的是新表。

过期表数据的物理删除

过期表的数据在各个replica server上也未必能立即被物理删除,因为:

  • 表的保留时间过期后,只有通过shell设置了set_meta_level lively,使meta server进入负载均衡模式,meta server才会通过config_syncRPC通知replica server删除相关的replica。而replica server在收到meta server的通知后,就会将需删除的replica文件夹通过添加.gar后缀进行重命名,表示这是可以被删除的垃圾数据。但此时数据仍未被真正物理删除。
  • replica server会定期(配置文件disk_stat_interval_seconds)扫描各个数据文件夹(配置文件data_dirs),统计文件夹的使用情况。对于标记为.gar后缀的replica文件夹,获取其最后修改时间,并和当前时间进行比较,只有当两者时间差超过了阈值(配置文件gc_disk_garbage_replica_interval_seconds)后,在会将文件夹删除掉。此时数据才算被真正物理删除。 所以综上所述,能够影响表被删除后进行物理删除的时间点的配置项包括:

  • [meta_server] hold_seconds_for_dropped_app:当drop表没有指定-r选项时,决定该表的保留时间。

  • [replication] disk_stat_interval_seconds:replica server定期扫描各个数据文件夹的时间间隔。
  • [replication] gc_disk_garbage_replica_interval_seconds:垃圾replica文件夹的最后修改时间距离当前时间超过这个阈值,文件夹才会被删除。 如果遇到需要紧急删除数据以释放磁盘空间,但是又不方便重启replica server更新配置的情况,可以根据表ID进行手工暴力删除,但是千万注意:

  • 不到万不得已,不要进行手工暴力删表,避免误操作。

  • 坚决只能删除过期表的数据。
  • 不要误删其他表的数据。

使用recall命令恢复表

使用方式

  1. recall <app_id> [new_app_name]

只要表的保留时间还没有过期,就能执行恢复:

  • 恢复时需指定表ID。
  • 可以指定新表名,如果不指定新表名,则会使用原表名。
  • 如果原表名已存在(删表后新建了同名表),则必须指定另外一个不同的新表名,否则会失败。
  • 恢复过程可能需要花费一段时间。

示例

以下是使用示例:删除mytable表,然后恢复成新表名mytable2

  1. >>> ls
  2. app_id status app_name app_type partition_count replica_count is_stateful drop_expire_time envs_count
  3. 1 AVAILABLE temp pegasus 8 3 true - 0
  4. 2 AVAILABLE mytable pegasus 8 3 true - 0
  5. list apps succeed
  6. >>> drop mytable
  7. reserve_seconds = 0
  8. drop app mytable succeed
  9. >>> ls
  10. app_id status app_name app_type partition_count replica_count is_stateful drop_expire_time envs_count
  11. 1 AVAILABLE temp pegasus 8 3 true - 0
  12. list apps succeed
  13. >>> ls -a
  14. app_id status app_name app_type partition_count replica_count is_stateful drop_expire_time envs_count
  15. 1 AVAILABLE temp pegasus 8 3 true - 0
  16. 2 DROPPED mytable pegasus 8 3 true 2018-07-28 19:07:21 0
  17. list apps succeed
  18. >>> recall 2 mytable2
  19. recall app ok, id(2), name(mytable2), partition_count(8), wait it ready
  20. mytable2 not ready yet, still waiting... (0/8)
  21. mytable2 not ready yet, still waiting... (0/8)
  22. mytable2 not ready yet, still waiting... (0/8)
  23. mytable2 not ready yet, still waiting... (0/8)
  24. mytable2 not ready yet, still waiting... (0/8)
  25. mytable2 not ready yet, still waiting... (0/8)
  26. mytable2 not ready yet, still waiting... (0/8)
  27. mytable2 not ready yet, still waiting... (0/8)
  28. mytable2 not ready yet, still waiting... (7/8)
  29. mytable2 is ready now: (8/8)
  30. recall app 2 succeed
  31. >>> ls
  32. app_id status app_name app_type partition_count replica_count is_stateful drop_expire_time envs_count
  33. 1 AVAILABLE temp pegasus 8 3 true - 0
  34. 2 AVAILABLE mytable2 pegasus 8 3 true - 0
  35. list apps succeed

设计与实现

关键点:

  • 表的生命周期定义要清晰:对于正在删除/召回的表,其他的create/recall/drop的操作要禁止。
  • 表的过期时间要在各个meta server之间达成一致,这需要各个meta server做时钟同步。
  • 如果表格被多次的删除和召回,当这些消息以乱序的方式送达到replica server时,一定要保证replica server能处理这些情况。最好能把drop操作映射成replica configuration元数据的变更。 实现要点简述:

  • meta server对删除动作的响应:当收到客户端响应时,meta server需要把信息更新到zookeeper: (1) app的状态改为dropped, 记录过期时间 (2) 升级configuration的状态,并记录到zookeeper。

  • replica server的replica生命周期变化:replica server通过定期和meta server交换心跳获取自己所服务的replica,如果发现本地的replica已经在远端不存在,则把本地的replica清除掉。
  • 过期数据的删除:replica server和meta交换心跳时,汇报自己所存储的replica。当meta判定一个replica已经无效时,命令replica将其删掉。