购物车0制造商:ADI/AD
优势和特点
在64引脚LQFP封装中集成32通道DAC
AD5372/AD53731 确保的16/14 bits单调性
最大输出电压范围是基准电压的4倍(20V)
可提供多种独立的输出范围
允许用户可编程失调和增益的系统校准功能
对用户定义的SIGGNDx进行清零
DAC输出的同步更新
欲了解更多信息,请参考数据手册
产品详情
AD5372/AD5373分别是16-bit或14-bit DAC,采用64引脚LQFP封装。器件提供4倍于基准电压的缓冲电压输出范围。每个DAC的增益和失调均能够独立调整,以去除误差。更灵活的是,器件被分为4组,每组8个DAC。2个失调DAC用于调整每组的输出范围。第0组通过失调DAC 0进行调整,第1组到第3组通过失调DAC 1进行调整。AD5372/AD5373 提供 VSS从-16.5 V 到-4.5 V、VDD从9 V 到16.5 V宽电压范围内的可靠工作。负载电流为1mA时,输出放大器的裕量需求为1.4 V。
AD5372/AD5373具有与SPI、QSPI™、MICROWIRE™和DSP接口标准兼容的高速串行接口,能够处理高达50 MHz的时钟速率。
DAC寄存器在接收新数据时更新。通过将LDAC输入引脚拉低,所有输出能够同时更新。每个通道都具有可编程增益和失调调整寄存器。
每个DAC输出能相对外部SIGGND输入被放大和缓冲。DAC输出也能够通过CLR引脚切换到SIGGND。
应用
自动测试设备(ATE)的电平设置
可变光学衰减器(VOA)
光学开关
工业控制系统
仪器仪表
Data Sheet, Rev. B, 03/08
| 标题 | 类型 | 大小(KB) | 下载 |
|---|---|---|---|
| AN-1036: Clear to Any Voltage Using the AD5370 (Rev. 0) | 74 | 点击下载 | |
| AN-1036: 利用AD5370清零至任意电压 (Rev. 0) | 151 | 点击下载 |
数字经济时代,越来越多的国际化科技创新城市相继涌现,北京作为中国式现代化的样板城市,已逐渐跃升为全球科创关键枢纽。在推进信息技术产业向前突破的过程中,北京市相继出台了一系列加快打造信息技术应用创新产业高地的政策措施,其中,升级技术创新生态、推进开源开放模式、打造行业标杆示范、建设信创人才梯队等被反复强调。作为一家扎根于首都北京的数字技术领军企业,软通动力一直都对服务首都信息技术产业高质量发展怀着强烈
深圳触觉智能旗舰级工控机IPC8802上市,全铝紧凑机身、瑞芯微RK3588⼋核处理器;率先适配OpenHarmony开源鸿蒙、麒麟Kylin OS国产操作系统,推动国产化与自主研发创新,得到了行业众多客户的青睐。
7月25日,在2024武汉RDI生态创新论坛上,中科驭数高级副总裁张宇受邀出席,作为发起单位代表共同见证武汉RISC-V生态创新中心揭牌仪式,并发表了题为《laaS on DPU:高性能异构云算力底座构建之路》的主题演讲。此次论坛聚集了国内外RISC-V领域的专家、学者及企业代表,共同探讨RISC-V架构在数字基础设施中的应用与未来趋势。
开关电源电磁兼容(EMC)测试是确保开关电源在工作过程中不会对周围电子设备产生干扰,同时能够抵抗来自外部的电磁干扰。EMC测试主要包括发射测试和抗扰度测试两部分。本文将详细介绍开关电源EMC测试的流程。 一、EMC测试前的准备了解相关标准:在进行EMC测试之前,需要了解相关的国际、国家和行业标准,如IEC 61000-4-2、EN 55011等,以确保测试的准确性和有效性。 确定测试范围:根据产品的功能和应用场景,确定需要进行EMC测试的频率范围、场强
随着车辆自动化程度的提升,人们对行车安全的要求也在不断攀升。相比于被动安全仅在碰撞发生后发挥作用,主动安全辅助驾驶通过对周围环境的实时感知、风险评估以及必要时的主动干预,能够在事故酝酿阶段就进行预警或制动,为驾驶者提供“第二双眼睛”和“第二只脚”。从最早的定速巡航,到如今覆盖城市拥堵、交叉路口、骑行者保护等多场景的综合安全体系,主动安全辅助驾驶实则是“感知—决策—执行”闭环的不断完善与升级。
这些制造商在中国市场的营收总额约为105亿美元,较去年同期增长了70%。荷兰的阿斯麦(ASML Holding)在中国市场的营收甚至增长了约3倍。
2025年11月6日,西安航空职业技术学院自动化工程学院院长李万军一行莅临维视智造总部,与维视教育业务部负责人李明睿就自动化与机器视觉领域的深度产教融合展开专题研讨,并正式签署校企战略合作协议。此次合作标志着双方在响应国家职业教育改革号召、共建高水平技术技能人才培养高地方面迈出实质性步伐。
有理论基础,我们就可以进行深度优化了。 为什么 transformer 性能这么好?它给众多大语言模型带来的上下文学习 (In-Context Learning) 能力是从何而来?在人工智能领域里,transformer 已成为深度学习中的主导模型,但人们对于它卓越性能的理论基础却一直研究不足。 最近,来自 Google AI、苏黎世联邦理工学院、Google DeepMind 研究人员的新研究尝试为我们揭开谜底。在新研究中,他们对 transformer 进行了逆向工程,寻找到了一些优化方法。论文《Uncovering mesa-opt
| AD7691 | AD7671 | ADSP-BF706 | AD652 |
| AD7091R-2 | ADG451 | ADG5412BF | AD5110 |
| AD7938-6 | ATA6625C | ADT6501 | AD5764R |
| ADP1753 | AD9119 | AD8386 | ADV7282 |
| AC1381 | AD7961 | ADA4960-1 | AD7478A |