发展规划:大卡组批量删除逻辑 问题及修改建议(已回复)

在我删除一个拥有12000卡片的章节时,目前监测网络请求观察到的批量删除逻辑如下:

发送remove请求,其中包含50个card的id。

每发送两个remove请求,删除100个后会刷新卡组,重新加载整个接近一万个的卡片,导致电脑现在出现长时间的卡顿。

修改建议:对于直接删除整个章节的功能,直接按章节id一次删除其中的所有卡片,这个需求写个sql应该很好实现。或是不要自动刷新卡组重新查询所有卡片,而是让用户自己手动刷新。建议直接反馈给你们的后端开发老哥。

对于10000个卡片以上的大卡组,目前的刷新,导入和批量删除都有非常大的卡顿出现

3 个赞

933个请求

1 个赞

强强!膜拜大佬 :saluting_face:
另外建议在软件反馈也发发,勾选网页版发送建议~

1 个赞

软件里也反馈了的

2 个赞

功能许愿(提建议/新想法)

  • 适用场景:希望官方添加新功能或优化现有功能(一次只提交一个愿望)。
  • 处理方式:官方会根据反馈数量进行评估。
  • 最佳实践:建议附上配图。可以自己画一下功能截图,或者截取其他类似产品的参考图,这样许愿成功率更高。

总结建议

  • 异常报 Bug:走「异常反馈」
  • 要加新功能:走「功能许愿」(带图)
  • 急事找人工:走「邮件联系」
  • 聊天找资源:逛「墨记论坛」