首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6篇
  免费   0篇
工业技术   6篇
  2023年   3篇
  2011年   1篇
  2008年   1篇
  2007年   1篇
排序方式: 共有6条查询结果,搜索用时 15 毫秒
1
1.
乳杆菌电转化条件的优化   总被引:3,自引:0,他引:3  
乳杆菌的遗传转化是限制对其遗传操作的关键因素之一.本实验用广宿主质粒pHY300PLK电转化植物乳杆菌(Lactobacillus plantarum)B0080,并优化了转化条件.系统地考察了细胞的生长时期、生长培养基组分、质粒浓度、电击时电场强度、复苏培养基组分等因素对转化效率的影响.选择含5.13%甘氨酸和0.54mol/L蔗糖的MRS培养基制备乳杆菌受体细胞,加入500ng质粒DNA,在电场强度7.41kV/cm电击转化,以含有0.3mol/L蔗糖的MRS培养基复苏培养,获得最佳转化率为3.6×104CFU/μg DNA,比使用初始方法得到的转化率提高了40倍.采用优化后条件,同样实现了pHY300PLK、pBBR1MCS-5对L.amylovoru s B0112和L.acidophilus B0068的高效转化,为进一步对这些菌株进行基因工程改造奠定了有利的方法学基础.  相似文献   
2.
近年来,随着基于位置的社交网络(Location-Based Social Network, LBSN)不断发展,POI序列推荐逐渐成为近年来研究的热点问题.现有的POI序列推荐方法仅仅按照时间的先后顺序建模用户历史签到序列,默认用户POI轨迹中连续POI之间具有相等的时间间隔,忽略了用户签到记录之间的时间间隔影响.另外,POI之间的地理距离以及语义信息也是影响推荐准确性的重要因素.基于此,本文提出自注意力下时空-语义相融合的POI序列推荐模型(POI sequence recommendation model based on the integration of spatiotemporal and semantics under self-attention, SA-TDS-PRec).首先,根据用户的实际签到时间建模POI轨迹.其次,融合POI绝对位置、时空间隔以及语义相关信息.最后利用自注意力机制捕捉用户动态偏好的演化,从而提高POI推荐的准确性.在公开数据集Gowalla和Yelp上进行可扩展实验.结果表明,该模型优于目前主流的基准模型,有效提升推荐结果准确性.  相似文献   
3.
Thermotoga maritima普鲁兰酶的基因克隆与酶学性质研究   总被引:3,自引:0,他引:3  
以海栖热袍菌(Thermotoga mariti ma)MSB8基因组DNA为模板,PCR扩增出普鲁兰酶基因pulA,克隆入表达载体pET28a,转化EscherichiacoliBL21-CodonPlus(DE3)-RIL,经IPTG诱导,测定普鲁兰酶酶活性。结果表明,重组转化子的细胞破碎液有普鲁兰酶活性,SDS-PAGE电泳结果显示出分子量约为96ku特异性蛋白质条带。酶学性质分析表明,其最适反应温度达到95℃,在30~80℃均保持最大酶活力的80%以上,最适反应pH值为6.0,且在碱性条件下稳定。  相似文献   
4.
教学工作是学校经常性的中心工作,教学质量管理工作理所当然地成为学校管理的经常性中心工作。教学管理的任务,就是要在正确的教学管理思想的指导下,使全体老师进行高效的教育和教学,使全体学生进行高效的学习并健康地成长,使学校其他所有人员都积极地为教育、教学多做有益的贡献,使教育教学质量得到全面提高,圆满地实现学校的培养目标。  相似文献   
5.
深度强化学习算法在奖励稀疏的环境下,难以通过与环境的交互学习到最优策略,因此需要构建内在奖励指导策略进行探索更新。然而,这样仍存在一些问题:1)状态分类存在的统计失准问题会造成奖励值大小被误判,使智能体(agent)学习到错误行为;2)由于预测网络识别状态信息的能力较强,内在奖励产生状态的新鲜感下降,影响了最优策略的学习效果;3)由于随机状态转移,教师策略的信息未被有效利用,降低了智能体的环境探索能力。为了解决以上问题,提出一种融合随机生成网络预测误差与哈希离散化统计的奖励构建机制RGNP-HCE(Randomly Generated Network Prediction and Hash Count Exploration),并通过蒸馏(distillation)将多教师策略的知识迁移到学生策略中。RGNP-HCE机制采用好奇心分类思想构建融合奖励:一方面在多回合间以随机生成网络预测差构建全局好奇心奖励;另一方面在单回合内以哈希离散化统计构建局部好奇心奖励,从而保证内在奖励的合理性以及策略梯度更新的正确性。此外,将多个教师策略学习到的知识通过蒸馏迁移到学生策略中,有效提升学生策略的环...  相似文献   
6.
为构建透明可信的推荐机制,相关研究工作主要通过可解释推荐机制为个性化推荐提供合理解释,然而现有可解释推荐机制存在三大局限:1)利用相关关系只能提供合理化解释而非因果解释,而利用路径提供解释存在隐私泄露问题;2)忽略了用户反馈稀疏的问题,解释的保真度难以保证;3)解释粒度较粗,未考虑用户个性化偏好。为解决上述问题,提出基于协同知识图谱(CKG)与反事实推理的可解释推荐机制(ERCKCI)。首先,基于用户自身的行为序列,采用反事实推理思想利用因果关系实现高稀疏度因果去相关,并迭代推导出反事实解释;其次,为提升解释保真度,不仅在单时间片上利用CKG和图神经网络(GNN)的邻域传播机制学习用户和项目表征,还在多时间片上通过自注意力机制捕获用户长短期偏好以增强用户偏好表征;最后,基于反事实集的高阶连通子图捕获用户的多粒度个性化偏好,从而增强反事实解释。为验证ERCKCI机制的有效性,在公开数据集MovieLens(100k)、Book-crossing和MovieLens(1M)上进行了对比实验。所得结果表明,该机制在前两个数据集上相较于RCF(Relational Collaborative ...  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号