欢迎来到58原创网网
更新日期:2025-09-07 08:12
写作核心提示:
这是一篇关于制作模型日记作文应该注意哪些事项的文章:
"撰写模型日记:记录心路,留住精彩"
模型制作,不仅仅是一项手工技艺,更是一场充满创造与思考的旅程。而模型日记,则是记录这段旅程、沉淀心路历程、分享制作乐趣与心得的绝佳方式。写好模型日记,不仅能提升制作体验,还能成为宝贵的回顾资料。那么,在撰写模型日记时,我们应该注意哪些事项呢?
"一、 内容翔实,记录关键节点"
模型制作往往是一个循序渐进的过程,日记的核心价值在于记录下这个过程。因此,内容要力求翔实,抓住关键节点:
1. "明确主题与目标:" 每篇日记最好围绕一个特定的制作阶段或一个核心主题展开。是开箱初体验?是完成某个难点部件?是进行上色?还是整体拼装?清晰的主题能让读者(或未来的自己)一目了然。 2. "记录制作步骤:" 详细描述你做了什么。比如,使用了哪些工具、材料(胶水、油漆、水贴等),遇到了什么问题,如何解决的,有什么特别的技巧或心得。步骤越清晰,越能体现你的思考过程。 3. "标注时间与进度:" 记录下每个阶段开始和结束的大致时间,以及当前完成度。这有助于追踪制作效率,也能在回顾时了解自己的投入程度。
"二、
import logging
import time
import torch
import torch.nn as nn
from torch.optim import Adam
from torch.utils.data import DataLoader
# 1. 日志初始化(合规关键:固定日志格式,包含所有必选字段)
def init_logger(task_id, log_path="./train_logs"):
# 创建日志目录
import os
os.makedirs(log_path, exist_ok=True)
# 日志文件名:任务ID+时间戳,方便追溯
log_file = f"{log_path}/task_{task_id}_log_{time.strftime('%Y%m%d%H%M%S')}.log"
# 配置日志格式:时间+任务ID+字段+内容
logging.basicConfig(
level=logging.INFO,
format="%(asctime)s - - %(message)s",
handlers=
)
# 记录基础信息(首次埋点必打)
base_info = {
"start_time": time.strftime("%Y-%m-%d %H:%M:%S"),
"torch_version": torch.__version__,
"device": torch.cuda.get_device_name(0) if torch.cuda.is_available() else "CPU",
"task_id": task_id
}
logging.info(f"BaseInfo: {base_info}")
return logging
# 2. 训练循环日志埋点(每步/每轮都要打关键字段)
def train_loop(logger, model, train_loader, val_loader, epochs=10, lr=1e-4):
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)
criterion = nn.CrossEntropyLoss()
optimizer = Adam(model.parameters(), lr=lr)
for epoch in range(epochs):
model.train()
train_loss_total = 0.0
# 每批次埋点:记录step、loss、batch_size、gpu信息
for step, (data, label) in enumerate(train_loader):
data, label = data.to(device), label.to(device)
optimizer.zero_grad()
output = model(data)
loss = criterion(output, label)
loss.backward()
optimizer.step()
# 关键字段日志:step、train_loss、lr、gpu_util
gpu_util = torch.cuda.utilization() if torch.cuda.is_available() else 0
gpu_mem = torch.cuda.memory_allocated() / (1024**3) if torch.cuda.is_available() else 0
logger.info(
f"TrainStep - epoch:{epoch+1}, step:{step+1}, "
f"batch_size:{len(data)}, train_loss:{loss.item():.4f}, "
f"lr:{optimizer.param_groups:.6f}, "
f"gpu_util:{gpu_util}%, gpu_mem:{gpu_mem:.2f}GB"
)
# 每轮验证埋点:val_loss、数据来源
model.eval()
val_loss = 0.0
with torch.no_grad():
for data, label in val_loader:
data, label = data.to(device), label.to(device)
output = model(data)
val_loss += criterion(output, label).item() * len(data)
val_loss_avg = val_loss / len(val_loader.dataset)
logger.info(
f"ValEpoch - epoch:{epoch+1}, val_loss:{val_loss_avg:.4f}, "
f"data_source:train_data_v1.2, val_data_v1.2"
)
# 3. 异常捕获:避免训练中断无日志
if __name__ == "__main__":
# 替换为你的任务ID(如项目名+日期)
task_id = "llm_finetune_20250829"
logger = init_logger(task_id)
try:
# 替换为你的模型、数据集(示例:随机数据)
dummy_model = nn.Linear(100, 10)
dummy_train_data = torch.randn(1000, 100)
dummy_train_label = torch.randint(0, 10, (1000,))
dummy_val_data = torch.randn(200, 100)
dummy_val_label = torch.randint(0, 10, (200,))
train_loader = DataLoader(list(zip(dummy_train_data, dummy_train_label)), batch_size=32)
val_loader = DataLoader(list(zip(dummy_val_data, dummy_val_label)), batch_size=32)
# 启动训练(日志自动埋点)
train_loop(logger, dummy_model, train_loader, val_loader, epochs=5)
logger.info("TrainFinish: 训练完成,无异常")
except Exception as e:
# 异常日志:记录报错详情
logger.error(f"TrainError: {str(e)}", exc_info=True)
三、3 个进阶技巧:让日志不仅合规,还能帮你优化训练
import pandas as pd
import re
# 提取日志中的loss和lr,画趋势图
log_data =
with open("train_logs/task_llm_finetune_20250829_log_20250829100000.log", "r") as f:
for line in f:
if "TrainStep" in line:
epoch = re.search(r"epoch:(d+)", line).group(1)
loss = re.search(r"train_loss:(d+.d+)", line).group(1)
log_data.append({"epoch": epoch, "train_loss": loss})
pd.DataFrame(log_data).astype(float).plot(x="epoch", y="train_loss")
分布式训练日志适配:多 GPU 训练时,在日志中加入 “rank” 字段,避免日志混乱:
# 分布式场景下,在日志中添加rank
rank = int(os.environ.get("RANK", 0))
logger.info(f"TrainStep - rank:{rank}, epoch:{epoch+1}, ...")
自定义字段扩展:如果审核方有额外要求(如数据增强类型、正则化参数),直接在日志中添加,比如:
logger.info(f"TrainStep - ..., aug_type:random_crop, dropout:0.1")
四、避坑指南:这 3 个细节别踩,否则还是会驳回
在《原神》的剧情中,凝光的群玉阁曾因镇压魔神而被毁,让很多玩家唏嘘不已,觉得非常可惜,当听到策划说会重建群玉阁后,又万分期待,如今时隔一年多群玉阁终于在近期重建好了,令众多玩家激动不已。
而一位264万粉丝的UP"特效小哥",为了得到表达自己激动的心情,爆肝684个小时,在现实中做出了群玉阁的模型!"特效小哥"是《原神》的忠实玩家,恰逢新年,就想着整个二创、整个活儿,刚好看了上个月《原神》新发布的PV,被重建好的群玉阁给震撼到了,就想着是不是自己也可以建一个群玉阁,而他要做的不仅仅是视频CG中的群玉阁,而是要做一个物理建模,一个看得见摸得着的群玉阁。
这段视频分为两部分,前一段是UP主的创意虚构剧情:深渊法师在冰箱的二次元世界中建造了一个哥德堡装置,此时深渊法师也正在建造群玉阁,而派蒙被吸入冰箱的二次元世界后,经历了种种冒险,最后看到了这个群玉阁,然后将这个故事告诉了旅行者;视频的第二部分主要就是简单讲述了群玉阁的建造过程和中途所遇到的困难,以及是如何克服的等等。
为了建造群玉阁,特效小哥的整个团队耗时684个小时,按照每天工作8个小时来计算,则需要85.5天才能建成,就算没日没夜的工作,也需要27天才能完成。而仅仅拍摄视频部分,很多镜头都拍了上百次,可想而知,整个建造过程的难度究竟有多大。当然成品也是让人惊艳,不仅能细看、能亮灯,还能唱戏(神女劈观),这样的群玉阁已经算是一件艺术品了。
如此群玉阁,自然会引起原神玩家的高度关注,有的人甚至在评论区留言问:这模型15万拿的下来吗?真心喜欢。看这位玩家的意思,估计还觉得15万报得少了呢,不少网友调侃:难道您就是富婆凝光本人?15W看似天价,不过这个群玉阁应该不会出售,毕竟整个团队工作耗时给这个东西赋予了极大的价值。
不得不说,《原神》的二创越来越优秀了,像前一段时间火遍全网的《原魔》角色演示【钟巴】、由《咒术回战》原画师制作的原神动画【飞彩镌流年】等等,如今又有群玉阁"手办"。只能说二创越来越卷了!
【个人总结】
原神的二创太卷了,这是经常听到玩家们说的一句话,原神的二创竞争太激烈,逼着玩家不断地提高二创质量,不过这也从侧面反映出玩家对原神的热爱,不然谁会耗时耗力地去做呢?也正是因为玩家们对原神的热爱,才出现了这么多优秀的二创作品,相信在以后也会出现更多优秀的原神二创。
本站部分资源搜集整理于互联网或者网友提供,仅供学习与交流使用,如果不小心侵犯到你的权益,请及时联系我们删除该资源。