更新时间:
正品免税香烟一手货源批发《今日汇总》
正品免税香烟一手货源批发2025已更新(2025已更新)
正品免税香烟一手货源批发《今日汇总》2025已更新(今日/推荐)
正品免税香烟一手货源批发
正品免税香烟一手货源批发
7天24小时人工电话为您服务、正品免税香烟一手货源批发服务团队在调度中心的统筹调配下,泊寓智能锁线下专业全国及各地区售后人员服务团队等专属服务,整个报修流程规范有序,后期同步跟踪查询公开透明。
所有售后团队均经过专业培训、持证上岗,所用产品配件均为原厂直供,
正品免税香烟一手货源批发
泊正品免税香烟一手货源批发全国服务区域:
正品免税香烟一手货源批发受理中心
上海市(浦东新区、徐汇区、黄浦区、杨浦区、虹口区、闵行区、长宁区、普陀区、宝山区、静安区、闸北区、卢湾区、松江区、嘉定区、南汇区、金山区、青浦区、奉贤区)
北京市(东城区、西城区、崇文区、宣武区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区)
成都市(锦江区,青羊区,金牛区,武侯区,成华区,龙泉驿区,青白江区,新都区,温江区,双流区,郫都区,金堂县,大邑县,蒲江县,新津县,都江堰市,彭州市,邛崃市,崇州市)
长沙市(芙蓉区,天心区,岳麓区,开福区,雨花区,望城区,长沙县,宁乡市,浏阳市)
北京、上海、天津、重庆、南京、武汉、长沙、合肥、成都、南宁、杭州、广州、郑州、太原、济南、海口、哈尔滨、昆明、西安、福州、南宁、长春、沈阳、兰州、贵阳、湖州、南昌、深圳、东莞、珠海、常州、宁波、温州、绍兴、南通、苏州、张家港、徐州、宿迁、盐城、淮安、淮南、南通、泰州、昆山、扬州、无锡、北海、镇江、铜陵、滁州、芜湖、青岛、绵阳、咸阳、银川、嘉兴、佛山、宜昌、襄阳、株洲、柳州、安庆、黄石、怀化、岳阳、咸宁、石家庄、桂林、连云港、廊坊、大连、大庆、呼和浩特、乌鲁木齐、鞍山、齐齐哈尔、荆州、烟台、洛阳、柳州、
在面临美国断供政策的情况下,公司在资本支出(Capex)和算力资源分配方面采取了哪些应对措施?
根据过往经验,公司在2022年A100断供时通过引入A8版产品部分恢复供应量。2023年底H800断供后,由于政策要求未交付订单也被取消,公司采取了一系列措施,包括:1)下线所有NVIDIA中高端卡的云服务产品;2)对现有库存进行重新分配,将部分库存优先用于内部研发需求和头部客户的使用;3)通过涨价策略应对市场需求,当时价格上涨幅度达到50%。此外,公司加速推进国产算力的储备,同时尝试通过特殊渠道获取NVIDIA产品,但此类操作属于次优选择。
公司如何评估国产算力解决方案的可行性及其潜在问题?
国产卡中相对成熟的选择包括昇腾、海光和寒武纪,同时公司也在开发自研卡。具体而言,寒武纪最新版本(如910C)的性能指标有所提升,例如支持万卡集群并实现800Gbps互联速度,但仍需进一步测试以验证实际性能与性价比。此外,目前国内厂商普遍存在供应链磨合问题,例如摩尔线程无法保证大规模量产,而其他替代方案也因生态体系限制难以大批量采购。
针对海外渠道受限的问题,公司是否考虑过其他方式获取国外高端芯片?
过去公司曾通过新加坡等地获取NVIDIA芯片,但随着政策收紧,此类渠道已基本被堵死。因此,目前公司更倾向于将资源倾斜至国产解决方案。
公司如何平衡现有库存与未来研发及客户需求之间的矛盾?
面临库存受限时,公司采取了多层次分配策略:1)暂停官网销售渠道,以确保内部研发模型所需资源;2)优先保障头部客户使用;3)剩余部分用于战略性谈判或特殊用途。同时,通过涨价控制市场需求并优化库存管理,以应对短期内可能出现的供应缺口。
当前国内服务器及相关硬件厂商是否能够满足公司的采购需求?
国内服务器厂商,如华山等,在硬件层面具备一定竞争力。但从GPU角度来看,大多数国内厂商仍处于发展初期。例如,摩尔线程虽具备一定技术基础,但其生产规模和稳定性不足,仅能作为补充选项。而910B因性价比问题未被广泛采用,其升级版910C虽声称性能提升显著,但实际效果仍需进一步验证。
针对近期算力采购增加的决策,其背后的逻辑和原因是什么?
算力采购增加的决策主要基于以下几个因素:
• 当前算力储备与需求之间存在明显差距。根据规划,API调用量预计将增长十倍,但现有算力储备无法满足这一需求增量。
• 用户规模持续增长,尤其是DeepSeek平台用户的快速扩张,导致推理端需求超出预期。此前认为API调用量翻十倍已是峰值,但实际情况显示需求增长速度更快。
• 与苹果合作带来的新业务尝试,包括软硬一体化和边缘计算等方向,对算力提出了明确且固定的下限要求。这种情况下,需要提前进行资源储备以应对潜在场景爆发带来的不确定性。
• 去年(2024年)采购的大量国产卡尚未完全释放其潜在价值,但随着DeepSeek上线后使用量激增,单日调用量从不足10万次跃升至千万级别,一年内实现百倍增长。这种指数级增长趋势进一步强化了提前采购的重要性,以避免未来可能出现的被动局面。
此外,高层决策还综合考虑了竞争因素,例如字节跳动及其他竞品在相关领域的布局,以及政策环境可能带来的不确定性。因此,为确保资源充足并规避风险,高层通过基础设施委员会最终拍板决定增加算力投入。
DeepSeek上线后推理任务需求呈现何种增长趋势?是否存在具体测算模型?
DeepSeek上线后推理任务需求呈现指数级增长趋势。从数据来看,大型企业单日均调用量已从去年(2024年)的不足10万次跃升至当前的千万级别,这一变化表明推理任务正在快速扩展。然而,由于能源互联网、金融等行业的大型企业刚刚开始接触相关平台,其推理任务尚处于初期阶段,因此短期内不会立即达到峰值。但根据测算模型预测,这类需求将在未来半年到一年内持续攀升。
在决定增加算力投入时,高层是否考虑了外部竞争压力?
外部竞争压力确实是高层考量的重要因素之一。目前DeepSeek不仅利好平台厂商,也为运营商创造了新的机会。在此背景下,包括字节跳动及其他竞品在内的一些公司也加速布局相关领域,这使得市场竞争更加激烈。此外,从整体流量来看,虽然目前绝对值仍较低,但其快速攀升趋势不可忽视。因此,为保持市场领先地位并应对潜在竞争威胁,公司选择提前进行大规模采购,以确保能够满足未来可能出现的新场景和新业务模式所需的计算能力。
算力扩展与token数量增长之间是否存在线性关系?
算力扩展与token数量增长并非线性关系。例如,当token需求增加10倍时,并不意味着硬件卡片数量需要同步增加10倍。随着集群规模扩大,资源利用率会有所提升。然而,这种提升主要体现在推理场景中,而在训练场景中,由于大规模互联需求,利用率可能会下降。
集群集中部署与分布式部署对资源利用率有何影响?
理论上,无论是集中式还是分布式部署,只要集群规模扩大,资源利用率上限都会提高。但在单一数据中心或单一集群下效果更佳,因为集中化管理能够更高效地优化算力调度和任务分配。
当前自建数据中心的布局及可用空间情况如何?
自建数据中心主要分布在张北、乌兰察布、河源、南通和杭州五大区域。其中,张北和乌兰察布的数据中心是智算业务的核心区域,目前仍有足够空间支持新增服务器部署。此外,还计划在甘肃和宁夏等地建设新的智算设施,以进一步扩展容量。
乌兰察布作为推理任务的数据中心是否存在时延问题?
乌兰察布的数据中心确实存在一定程度的时延,但对于当前任务而言,该时延处于可接受范围内。选择该地区主要基于能源成本较低、土地资源充足等因素,同时符合“东数西算”的整体战略规划。
AI服务器是否完全依赖自建数据中心?
AI服务器的大部分部署在自建数据中心,大头超过50%,其中乌兰察布的数据中心占据重要位置。然而,也会使用第三方IDC,例如数据港、万国以及润泽等合作伙伴,但具体比例由独立部门负责管理,目前无法提供精确数字。
国产AI加速卡(如含光)目前在推理及训练中的应用定位是什么?
含光AI加速卡目前主要用于推理任务,其性能定位接近V100,与其他国产训练卡(如寒武纪、神算)相比仍有差距。这些国产训练卡通常对标的是NVIDIA A100,而含光则以较低成本满足特定推理需求。同时,公司也尝试使用其他国产加速卡替代A100进行部分训练任务或复杂模型推理,但短期内含光仍以内部业务支撑为主,并逐步探索外部市场应用可能性。
能源、金融等产业客户对算力需求增长显著,例如从10万个单位增长到1,000万个单位,这种需求主要来源于哪些场景?是否会提前与平台方沟通?
能源和金融行业客户的大幅度算力需求增长主要集中在私有云、专有云等部署场景。这些客户通常会基于自身业务规划提前与平台方进行沟通,例如明确未来某年度需要增加多少算力资源。然而,这种提前沟通并非绝对,因为部分客户采用的是混合云或战略云模式,其部署灵活性较高。例如,他们可以通过模型平台(如派)直接在现有算力资源上进行模型部署,而无需立即新增硬件资源。此外,如果现有算力储备充足,例如已购置100张卡但仅使用30张,则短期内不会产生额外采购需求。因此,对于这类产业客户而言,实际新增算力需求具有一定的不确定性。
平台方是否能够准确掌握公有云及私有云用户的实际利用率,以此预测未来增量?
平台方无法完全掌握用户实际利用率的数据。一方面,由于涉及隐私保护,部分数据无法直接获取;另一方面,即使是公有云环境,也存在用户将项目部署到其他非本地化算力上的情况。因此,目前只能通过间接方式推测利用率,但难以做到精准预测。此外,对于像派这样的模型平台,其用户行为具有较大的随机性。例如,有些企业可能突然在一个季度内快速增加计算资源使用,因此整体增量预测仍然面临较大的不确定性。
资本支出的显著增加背后,是基于流量增长推理还是已有明确订单支持?相关扩容计划如何影响调用能力?
当前资本支出的增加既基于流量增长趋势推理,也受到部分明确订单支持。例如,一些私有云或专有云客户已表示将在2025年增加机器及算力采购。然而,这种扩容计划难以精确拆分其驱动因素是来自数据中心建设(DC)还是原始业务增量。对于使用派平台的大型企业而言,即使新建数据中心,也需经过调优、评估及AB测试等阶段才能实现放量投产。从经验看,这一过程通常需要一个季度以上时间。因此,即便扩容计划实施,对调用能力的提升也需逐步体现。
当前在估算多模态模型的调用量与算力需求时,存在哪些不确定性因素?是否有具体的参考数据或依据?
目前在估算多模态模型的调用量与算力需求时存在较大的不确定性。主要原因是涉及多个变量,包括调用次数、不同模态(如文本、图像、视频等)的占比及其对资源消耗的差异。这种差异使得整体计算难以精确预测。此外,多模态任务目前在实际应用中的占比较低,用户体验门槛较高且效果尚未达到理想水平,因此当前的数据无法完全反映未来可能的使用情况。如果假设现有文字与多模态结构比例保持不变,根据经验判断,一倍算力增量大致可以支持七到八倍的token调用量,但这一判断缺乏充分的数据支撑。
多模态模型中不同类型任务(如原生多模态和分阶段多模态)对单次调用token需求有何差异?未来原生多模态的发展是否会改变这种需求?
分阶段多模态和原生多模态在单次调用token需求上存在显著差异。目前分阶段实现的图像生成类任务,每次大约消耗4,000多个token,这还未达到高清或高质量图片生成所需水平。而对于尚未推出的原生多模态,其理论上可能会减少单次调用所需token数量,但这一变化幅度预计有限。由于相关模块尚未开发完成,具体影响仍不可控,因此无法提供明确的数据支持。
当前多模态技术的主要形式是否以视频为核心?
是的,目前多模态技术的主要形式确实以视频为核心。这种架构在实际应用中被广泛采用,尤其是在需要整合视觉、语音和文本等多种信息源的场景中。
当前在降本增效方面的核心策略是什么?是否主要集中在训练端?
是的,当前降本增效的核心策略主要集中在训练端。由于目前正处于新模型攻坚阶段,人力资源也主要投入到训练环节。推理端暂未被视为重点方向。
客户需求中,模型调用的具体偏好如何分布?是更倾向于高性能版本还是轻量化版本?
从客户需求拆分来看,目前以金字塔原理为主,但高性能版本(如671满血版)是最重要的部分。这类需求通常出现在尝鲜或促销活动场景中,因为其性价比较高。
在国产GPU卡测试中,不同厂商产品表现如何排序?更倾向于采购哪家产品?
测试结果显示,寒武纪优先级最高,其次是海光,而昇腾排在最后。寒武纪与阿里有战略合作关系,供应保障较强。在性能方面,以590型号为例,其运行Transformer时单卡性能接近NVIDIA A100,并且通过软件调优后理论上可超越A100。然而,在互联技术上仍存在一定差距。目前测试集群规模约千卡,算力达到A100约60%的水平。而昇腾910B性价比一般,商务关系也不够紧密,因此排名靠后。
国产GPU服务器与NVIDIA GPU服务器在价值构成上有何不同,例如
采取了自建和采购相结合的模式。早期主要使用网宿科技的服务,随后也与运营商合作,同时逐步建立了自有的CDN体系。
针对2025年阿里云整体收入目标,公司目前有何规划?
2024年阿里云外部收入约为820亿元。2025年的初步目标设定为950亿元,但随着市场动态调整,目前内部倾向于将目标上调,增幅约为30%。这一调整主要基于市场扩张机会和内部资源整合后的增长预期。
阿里云AI业务,对于2025年是否有明确的增长目标?
对于2025年,我预计该部分收入至少实现翻倍增长。这一增长主要依赖算力租赁等核心业务驱动,而非token调用费用,因为token价格预计会进一步下探。
阿里云整体外部收入中是否包含淘宝、天猫等集团内部业务贡献?如果不包含,其规模如何?
所有提及的数据均为外部口径,不包含淘宝和天猫等集团内部业务贡献。天猫相关内部贡献大致在250亿至300亿元之间。
AI相关产品利润率是否高于非AI产品?公司当前对利润率的关注程度如何?
从现阶段来看,由于抢占市场份额是优先任务,AI相关产品利润率并未显著高于非AI产品。目前公司更关注规模扩张,而非短期内提升利润率。不过,公司希望能够维持现有毛利水平或实现微幅提升,以确保稳定发展。
公司近期为何突然上调整体收入预期,有无具体信号或事件推动这一决策?
并无特定信号推动这一调整。从春节开始,高层已在讨论相关规划,并结合多项内部变动最终形成了新的预期。这一调整符合当前市场环境及公司战略方向,因此并不令人意外。
AI业务从90亿到200多亿的增长中,具体由哪些因素驱动?核心逻辑是什么?
增长主要由算力租赁需求拉动,这是最重要的驱动力。此外,通过新客户购买计算资源卡带动其他产品消费也是关键逻辑之一。而token调用虽然有所增加,但其价格下降趋势限制了其对总收入的贡献增幅。
全文完,感谢您的耐心阅读,请顺手点个"在看"吧~