bak文件打开是乱码

生活经验023

本文目录

bak文件打开是乱码,第1张

  1. 怎么打开BAK文件啊,常规用记事本和word打开都是乱码?
  2. bak文件转excel后乱码?
  3. bak格式文件用什么软件打开?
  4. hadoop表名规则?

怎么打开BAK文件啊,常规用记事本和word打开都是乱码?

BAK文件 用任务工具都是打不开的 比如 一个记事本文件 aaa.txt,你把它重命名为 aaa.txt.bak,这样这个文件无论用什么工具都打不开了,再把它重命名,去掉.bak,这样就又可以打开了。

bak文件转excel后乱码?

如果您将`.bak`文件转换为Excel后出现乱码,可能是由于以下几种原因:

1. 文件格式不匹配:确保您将`.bak`文件正确转换为Excel文件格式(如`.xls`或`.xlsx`)。如果您使用了错误的文件格式,可能会导致乱码问题。

2. 编码格式不匹配:`.bak`文件可能使用了一种特定的编码格式,而Excel默认使用的编码格式与之不匹配,导致乱码。您可以尝试在Excel打开文件时选择正确的编码格式,或者在转换过程中进行编码格式的转换。

3. 特殊字符或语言支持问题:如果`.bak`文件包含特殊字符或使用了某些语言的字符,而Excel默认的字符集或语言设置不支持这些字符,可能会导致乱码。在打开文件或转换文件时,确保Excel的字符集和语言设置与文件中的字符和语言匹配。

4. 数据格式错误:在将数据从`.bak`文件转换为Excel时,可能会发生数据格式错误,导致部分或全部数据显示为乱码。确保在转换过程中正确地解析和处理数据。

如果您尝试了上述方法仍然无法解决乱码问题,可能需要进一步检查`.bak`文件的内容和特点,或者尝试使用其他工具或方法进行转换。

bak格式文件用什么软件打开?

用AutoCAD、WORD可以打开。

打开方法: 通过“重命名”就可以打开。直接重命名把bak替换成该文件的格式就可以恢复此文件并且正常打开。 1、选择要打开的bak文件。

2、选中文件,单击右键,选择重命名。

3、把文件名后缀改成.doc即可打开。

4、打开后如图。

手机bak文件打开的方法:

bak文件可以通过直接重命名把bak替换成该文件的格式就可以恢复此文件并且正常打开了。如现在有一个asii.dwg文件的备份文件asii.bak ,想要把备份文件恢复成正式文件,只需要对该备份文件重命名把bak替换为dwg就可以打开了 。同样,如果是word文件的备份文件只要把bak换成doc就可以了。

hadoop表名规则?

为了避免底层业务变动对上层需求影响过大,屏蔽底层复杂的业务逻辑,尽可能简单、完整的在接口层呈现业务数据,建设高内聚松耦合的数据组织,使数据从业务角度可分割,显得尤为重要。从整个集团业务条线出发,形成数据仓库总体概念框架,并对整个系统所需要的功能模块进行划分,明确各模块技术细节,建设一套完整的开发规范。

分层规范

ODS(原始数据层):也被称为贴源层,ODS层是数据仓库准备区,为DWD层提供基础原始数据。

DWD(明细数据层):和ODS粒度一致的明细数据,对数据进行去重,脏数据过滤,空处理,保证数据质量。

DWS(服务数据层):轻度汇总数据及建宽表(按主题)存放数据。

ADS(应用数据层):存放应用类表数据。

ODS - DWD - DWS - ADS

ODS - DW(轻度数据汇总层、高度数据汇总层) - DM(数据集市)

表规范

命名

维表 命名形式:dim_描述

事实表 命名形式:fact_描述_[AB]

临时表 命名形式:tmp_ 正式表名_ [C自定义序号]

宽表 命名形式:dws_主题_描述_[AB]

备份表 命名形式:正式表名_bak_yyyymmdd

表命名解释:

1)表名使用英文小写字母,单词之间用下划线分开,长度不超过40个字符,命名一般控制在小于等于6级。

2)其中ABC第一位"A"时间粒度:使用"c"代表当前数据,"h"代表小时数据,"d"代表天数据,"w"代表周数据,"m"代表月数据,"q"代表季度数据, "y"代表年数据。

3)其中ABC的第二位"B"表示对象属性,用"t"表示表,用"v"表示视图。

4)其中ABC的第三位"C"自定义序号用于标识多个临时表的跑数顺序。

注释

注释要结合表的英文名,要求注释简洁明了,体现出表的业务出处、主题和用途。

存储格式

所谓的存储格式就是在Hive建表的时候指定的将表中的数据按照什么样子的存储方式,如果指定了方式,那么在向表中插入数据的时候,将会使用该方式向HDFS中添加相应的数据类型。在数仓中建表默认用的都是PARQUET存储格式,相关语句如下所示:

STORED AS INPUTFORMAT

'org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat'

OUTPUTFORMAT

'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat'

字符集

Hadoop和hive 都是用utf-8编码的,在建表时可能涉及到中文乱码问题,所以导入的文件的字符编码统一为utf-8格式。

约定

理论上在数仓落地的表不应该出现null未知类型,对于可能出现null的字段,如果为字符型统一为空字符串,如果是数值则给0。

字段规范

命名

1)使用英文小写字母,单词之间用下划线分开,长度不超过30个字符,命名一般控制在小于等于4级;

2)和源数据ods层表字段名一致,如为新增字段,尽量言简意赅;

3)英文名尽量专业,符合业界要求,不得使用汉语拼音;

4)尽量避免使用关键字。如无法避免,使用”`”转义;

5)指标字段能使用缩写的尽量使用统一的缩写,如申请金额统计apply_amt_sum。

注释

注释本着简洁、详实、完整的原则,对于有业务含义的字段,在注释中需要枚举并解释其业务含义,如ods_loan_apidata_order_info.order_status 订单状态:1待支付,2支付不成功,3支付成功;

类型

日期时间等格式统一用string类型,字符串也是用string,数值的话,会根据字段定义来确定,对于有小数点要求的,比如某些金额、利率,需要用到decimal类型,无小数点要求的用浮点类型double和整数类型(int,bigint)。

代码规范

sql编码

1)关键字右对齐,代码注释详尽,查询字段时每行不超过三个字段,缩进时空四格等相关书写规范。

2)明细数据层依赖于ods层,应用数据层依赖于服务数据层,原则上,不允许跨层查询。

3)如果SQL语句连接多表时,应使用表的别名来引用列。

4)WHERE条件中参数与参数值使用的类型应当匹配,避免进行隐式类型转化。

5)在SELECT语句中只获取实际需要的字段。

shell脚本

调度脚本主要是通过跑shell脚本,shell脚本的注意点:

1)命名与所跑的目标表名相同,注释要完善,后缀以.sh结尾。

2)脚本头需要加上分割线、作者、日期、目的、描述等信息。