在Zalo AI挑战中的问答中,使用常见的算法解决问题,包括推理和Bidaf。特别是使用预训练的BERT多语言模型。数据分为85%的训练集和15%的测试集,测试集包括2,200个样本,根据标签分布进行划分。使用越南语预训练的ELMo从句子中提取特征。模型在公共测试集中表现超过55%的准确度,但可能存在过拟合现象。第二个方向是使用预训练的BERT多语言模型,火车测试数据表现出色,测试集准确度约为75-76%,提交时为73-74%。结果显示训练集和测试集结果相似。