查看原文
其他

中国工业经济(更新) | MD&A信息含量指标构建代码实现

大邓 大邓和他的Python
2024-09-10

由于任何一个行为主体都会受到 周围环境 自身经历(认知) 影响,所发表的信息必然包含 环境信 和 特异性信息。如何通过文本,表征文本的通用信息和特意性信息,如何测量行为主体发表内容的信息含量,带着这些疑问, 一起读这篇17年的论文的方法论部分,并用Python将其实现。



一、信息含量

由于每个公司的 MD&A 中不仅包括公司经营状况等历史信息, 也包括与其他公司相似的信息, 如外部环境、市场格局、风险因素等内容。因此, 本文参考 Hanley and Hoberg ( 2010 ), 从行业和市场两个维度来考察和定义公司 MD&A 中的信息含量。

  • 市场因素, 所有上市公司都处于相同的宏观经济环境、风险因素和政治、政策背景之下;
  • 行业因素, 同一行业中的各上市公司又面临着相似的产业政策、竞争环境和市场特征。

由此可见, 每个上市公司 MD&A 信息不可避免地在某种程度上与同行业其他上市公司以及市场其他行业上市公司存在一定的相似性, 甚至某些公司可能直接参考其他公司 MD&A 的表述。可以将与行业其他公司或其他行业的公司重复或相似的信息定义为不具有信息含量的内容,同时将不同的信息定义为真正具有信息含量的内容,简称为信息含量


孟庆斌, 杨俊华, and 鲁冰. "管理层讨论与分析披露的信息含量与股价崩盘风险——基于文本向量化方法的研究." 中国工业经济 12 (2017): 132-150.


1.1 摘要

本文采用文本向量化的方法, 对 2007—2015 年中国 A 股上市公司年报的管理层讨论与分析(MD&A)所披露的信息含量加以度量, 研究其对股价崩盘风险的影响。研究发现, MD&A 的信息含量越高,未来股价崩盘风险越低。将 MD&A 进一步划分为回顾部分和展望部分后发现,仅有展望部分中的信息含量能够显著降低未来股价崩盘风险。在控制内生性问题之后,本文的结论依然成立。本文还分别从文本可读性和信息不对称的角度出发,研究它们对二者关系的影响。结果表明,信息的可读性越高,信息不对称程度越高,展望部分的信息含量对股价崩盘风险的降低作用越大。在重新定义股价崩盘风险的计算区间以及控制股价同步性之后, MD&A 展望部分的信息含量依然能够显著降低股价崩盘风险, 表明本文的结论是稳健的。本文从文本信息的角度丰富了股价崩盘风险影响因素的研究, 同时也从增量信息的角度完善了 MD&A 信息有用性的研究,具有重要的理论和现实意义。


1.2 样本选择和处理

本文选取 2007 — 2015 年中国上市公司年报中的 MD&A 信息作为研究样本。之所以选取 2007 年作为样本的起点, 是因为从 2007 年开始, MD&A 在企业定期报告中的披露要求已经较为完善, 而且 2007 年是中国会计准则国际趋同的重要时点, 新制定的《企业会计准则》已经开始实施, 为避免前后会计准则差异而产生的影响, 因此选取 2007 年作为样本区间的起点。

本文所使用的上市公司年度报告均来自于巨潮资讯网。数据处理过程如下:


( 1 )剔除金融行业、 ST 和 *ST 类企业, 以及上市时间不足一年的企业。

( 2 )从 MD&A 的内容中分别提取回顾和展望部分, 保存为回顾信息文件和展望信息文件, 部分无法抓取出的年报通过手工收集处理。

( 3 )文本处理-文本向量化。 借鉴 Hanley and Hoberg ( 2010 )的研究思路, 将每个 MD&A 文本通过向量的 形式表示出来, 其每个元素为文本中的每个词语出现的频率。 例如, 假设某 MD&A 文本中包含 10000 个词, 则该文本对应一个 10000×1 维的向量。 举一个简单的例子来描述文本向量化的过程: 在两个简化的 MD&A 文本中, 一个包含“我们生产土豆和生产玉米”, 另一个包含“我们生产家具”, 剔除连词“和”、代词“我们”之后, 只剩下“生产”、“土豆”、“玉米”、“家具”这 4 个词。 那么, 在第一个 MD&A 文本中, “生产”、“土豆”和“玉米”分别出现了 2 次、 1 次和 1 次, 而“家具”出现 0 次, 所以该 文本的向量为 {2 , 1 , 1 , 0} , 同样得到第二个文本的向量为 {1 , 0 , 0 , 1} 。

( 4 )向量标准化。 对于向量化的文本, 仍需解决文本长度不同导致的结果不可比问题。 一般来说, 某一个词在长文本中重复出现的次数较多, 在短文本中重复出现的次数较少, 但并不能因此说 长文本比短文本的信息量大。 为此, 本文进一步将这些向量进行标准化处理, 即将该向量除以文本 中单词的总数, 得到标准化后的向量。 在上面的例子中, 两个公司的标准化之后的向量就成为了 {0.50 , 0.25 , 0.25 , 0} 和 {0.50 , 0 , 0 , 0.50} 。

1.3 文件目录

管理层讨论信息含量/
├── 代码.ipynb
├── data/
│   ├── 行业代码00-22.xlsx
│   └── mda01-22.csv.gz
├── mda_infor2001-2022.csv
├── mda_infor_output/
│   └── 2022/
│       ├── A000002.csv
│       ├── A000004.csv
│       ├── A000005.csv
│       ├── A000006.csv
│       ├── ...
│   └── 2021/
│       ├── A000002.csv
│       ├── A000004.csv
│       ├── A000005.csv
│       ├── A000006.csv
│       ├── ...
│   └── 2019/
│       ├── A000002.csv
│       ├── A000004.csv
│       ├── A000005.csv
│       ├── A000006.csv
│       ├── ...
│   └── ...

二、导入数据

这里准备了2001-2022年A股经营讨论与分析内容和行业代码数据。

import pandas as pd

df = pd.read_csv('data/mda01-22.csv.gz', compression='gzip')
df.columns = ['会计年度''股票代码''经营讨论与分析内容']

#上市公司行业信息
ind_info_df = pd.read_excel('data/行业代码00-22.xlsx')


df = pd.merge(df, ind_info_df, on=['股票代码''会计年度'], how='inner')


# 剔除金融行业处理
df = df[~df['行业代码'].str.contains("J")]
df = df[~df['股票简称'].str.contains("ST")]

# 剔除金融行业处理
df = df[~df['行业代码'].str.contains("J")]
df = df[~df['公司简称'].str.contains("ST")]

df.head()



三、以2020年为例

写代码先局部后整体,以2020年为例,如果2020年可以成功计算出信息含量,则可以for循环推广到所有股票所有年份。本章节需要做

  1. 选定某年份,以2020年为例
  2. 定义transform函数,用于处理「经营讨论与分析内容」字段内的内容。
  3. 文本向量化,向量标准化。

3.1 选定2020年

df_per_year = df[df['会计年度']==2020]
df_per_year.reset_index(inplace=True)
df_per_year.head()


3.2 定义transform函数

定义 transform 函数,该函数可以处理「经营讨论与分析内容」字段内容,使其:

  1. 只保留中文内容
  2. 剔除停用词
  3. 整理为用空格间隔的字符串(类西方语言文本格式)

之后应用 transform函数, 使用 apply 方法, 处理  df_per_year['经营讨论与分析内容']

import re
import jieba
import cntext as ct
    
#cntext1.x
#stopwords = ct.load_pkl_dict('STOPWORDS.pkl')['STOPWORDS']['chinese']

#cntext2.x
stopwords= ct.read_yaml_dict('enzh_common_StopWords.yaml')['Dictionary']['chinese']

    


def transform(text):
    #只保留md&a中的中文内容
    text = ''.join(re.findall('[\u4e00-\u9fa5]+', text))
    #剔除停用词
    words = [w for w in jieba.cut(text) if w not in stopwords]
    #整理为用空格间隔的字符串(类西方语言文本格式)
    return ' '.join(words)


df_per_year['clean_text'] = df_per_year['经营讨论与分析内容'].apply(transform)

Building prefix dict from the default dictionary ...
Loading model from cache /var/folders/sc/3mnt5tgs419_hk7s16gq61p80000gn/T/jieba.cache
Loading model cost 0.556 seconds.
Prefix dict has been built successfully.


3.3 文本向量化

本小节要做:

  1. 文本向量化
  2. 向量标准化
  3. 合并多个字段为新的df

先将df_per_year['clean_text'] 向量化,代码如下

%%time
from sklearn.feature_extraction.text import CountVectorizer

cv = CountVectorizer(min_df=0.05, max_df=0.5
# 生成稀疏bow矩阵
dtm_per_year = cv.fit_transform(df_per_year['clean_text']) 
dtm_per_year = pd.DataFrame(dtm_per_year.toarray())
dtm_per_year

Run

CPU times: user 4.09 s, sys: 109 ms, total: 4.2 s
Wall time: 4.2 s


import numpy as np

#向量标准化
dtm_per_year = dtm_per_year.apply(lambda row: row/np.sum(row), axis=1)
dtm_per_year


#合并多个字段为新的df
dtm_per_year = pd.concat([df_per_year[['股票代码''会计年度''行业代码']], dtm_per_year], axis=1)
dtm_per_year.head()



四、计算2020年行业向量、市场向量

计算2020年所有公司的市场向量、行业向量。这里

import os
import pandas as pd
from tqdm import tqdm

#将中间计算结果存储在 mda_infor_output 文件夹。
#没有该文件夹,就新建
if not os.path.exists('mda_infor_output'):
    os.mkdir('mda_infor_output')
    
    
for idx in tqdm(range(len(dtm_per_year)), desc="会计年度2020进度"):
    code = dtm_per_year.loc[idx, '股票代码']
    ind = dtm_per_year.loc[idx, '行业代码']
    year = dtm_per_year.loc[idx, '会计年度']
    
    ind_freq = dtm_per_year[dtm_per_year['行业代码']==ind][dtm_per_year['股票代码']==code].iloc[:, 3:].mean(axis=0)
    market_freq = dtm_per_year[dtm_per_year['行业代码']!=ind].iloc[:, 3:].mean(axis=0)
    
    dtm_per_year_melted = dtm_per_year.melt(id_vars=['股票代码''会计年度''行业代码'],
                                            var_name='word_id'
                                            value_name='word_freq')
    corporate_df = pd.DataFrame({'word_id': dtm_per_year_melted[dtm_per_year_melted['股票代码']==code]['word_id'].values,
                                 'word_freq': dtm_per_year_melted[dtm_per_year_melted['股票代码']==code]['word_freq'].values,
                                 'ind_freq': ind_freq,
                                 'market_freq':market_freq})
    corporate_df['股票代码'] = code
    corporate_df['行业代码'] = ind
    corporate_df['会计年度'] = year
    corporate_df.reset_index(inplace=True)
    corporate_df = corporate_df[['股票代码''行业代码''会计年度''word_id''word_freq''ind_freq''market_freq']]

    
    if not os.path.exists('mda_infor_output/{year}'.format(year=year)):
        os.mkdir('mda_infor_output/{year}'.format(year=year))
    corporate_df.to_csv('mda_infor_output/{year}/{code}.csv'.format(year=year, code=code), index=False)

Run

会计年度2020进度: 100%|███████████████| 3923/3923 [1:35:32<00:00,  1.46s/it]

从运行的进度条可知2020 年符合规则的记录有3923 条, 运行时间 1 小时 35 分钟。



五、计算2001-2022年所有公司行业向量、市场向量

信息含量的定义。由于每个公司的 MD&A 中不仅包括公司经营状况等历史信息, 也包括与其他公司相似的信息, 如外部环境、市场格局、风险因素等内容。因此, 本文参考 Hanley and Hoberg ( 2010 ), 从行业和市场两个维度来考察和定义公司 MD&A 中的信息含量。

  • 市场因素, 所有上市公司都处于相同的宏观经济环境、风险因素和政治、政策背景之下;
  • 行业因素, 同一行业中的各上市公司又面临着相似的产业政策、竞争环境和市场特征。

由此可见, 每个上市公司 MD&A 信息不可避免地在某种程度上与同行业其他上市公司以及市场其他行业上市公司存在一定的相似性, 甚至某些公司可能直接参考其他公司 MD&A 的表述。

参考文中截图行业向量、市场向量计算方法,有如下代码。该部分代码运行较慢,全部运行下来大约10小时。

from sklearn.feature_extraction.text import CountVectorizer
from tqdm import tqdm
import numpy as np
import pandas as pd
import os
import re
import jieba
import cntext as ct


#检查是否有文件夹mda_infor_output,如果没有就新建一个
if not os.path.exists('mda_infor_output'):
    os.mkdir('mda_infor_output')
    
    
#cntext1.x
#stopwords = ct.load_pkl_dict('STOPWORDS.pkl')['STOPWORDS']['chinese']

#cntext2.x
stopwords= ct.read_yaml_dict('enzh_common_StopWords.yaml')['Dictionary']['chinese']


def transform(text):
    #只保留md&a中的中文内容
    text = ''.join(re.findall('[\u4e00-\u9fa5]+', text))
    #剔除停用词
    words = [w for w in jieba.cut(text) if w not in stopwords]
    #整理为用空格间隔的字符串(类西方语言文本格式)
    return ' '.join(words)




#读取数据
df = pd.read_csv('data/mda01-22.csv.gz', compression='gzip')
df.columns = ['会计年度''股票代码''经营讨论与分析内容']

#上市公司行业信息
ind_info_df = pd.read_excel('data/行业代码00-22.xlsx')
df = pd.merge(df, ind_info_df, on=['股票代码''会计年度'], how='inner')

# 剔除金融行业处理
df = df[~df['行业代码'].str.contains("J")]
df = df[~df['股票简称'].str.contains("ST")]

 
for year in df['会计年度'].unique():
    df_per_year = df[df['会计年度']==year]
    df_per_year.reset_index(inplace=True)
    df_per_year['clean_text'] = df_per_year['经营讨论与分析内容'].apply(transform)
    

    cv = CountVectorizer(min_df=0.05, max_df=0.5
    # 生成稀疏bow矩阵
    dtm_per_year = cv.fit_transform(df_per_year['clean_text']) 
    dtm_per_year = pd.DataFrame(dtm_per_year.toarray())
    dtm_per_year = dtm_per_year.apply(lambda row: row/np.sum(row), axis=1)
    
    dtm_per_year = pd.concat([df_per_year[['股票代码''会计年度''行业代码']], dtm_per_year], axis=1)
    
    for idx in tqdm(range(len(dtm_per_year)), desc=f"会计年度{year}进度"):
        code = dtm_per_year.loc[idx, '股票代码']
        ind = dtm_per_year.loc[idx, '行业代码']
        year = dtm_per_year.loc[idx, '会计年度']



        ind_freq = dtm_per_year[dtm_per_year['行业代码']==ind][dtm_per_year['股票代码']!=code].iloc[:, 3:].mean(axis=0)
        market_freq = dtm_per_year[dtm_per_year['行业代码']!=ind].iloc[:, 3:].mean(axis=0)
        
        dtm_per_year_melted = dtm_per_year.melt(id_vars=['股票代码''会计年度''行业代码'],
                                                var_name='word_id'
                                                value_name='word_freq')
        corporate_df = pd.DataFrame({ 'word_id': dtm_per_year_melted[dtm_per_year_melted['股票代码']==code]['word_id'].values,
                                       'word_freq': dtm_per_year_melted[dtm_per_year_melted['股票代码']==code]['word_freq'].values,
                                       'ind_freq': ind_freq,
                                       'market_freq':market_freq})
        corporate_df['股票代码'] = code
        corporate_df['行业代码'] = ind
        corporate_df['会计年度'] = year
        corporate_df.reset_index(inplace=True)
        corporate_df = corporate_df[['股票代码''行业代码''会计年度''word_id''word_freq''ind_freq''market_freq']]
        
        
        if not os.path.exists('mda_infor_output/{year}'.format(year=year)):
            os.mkdir('mda_infor_output/{year}'.format(year=year))
        corporate_df.to_csv('mda_infor_output/{year}/{code}.csv'.format(year=year, code=code), index=False)

Run

Building prefix dict from the default dictionary ...
Loading model from cache /var/folders/y0/4gqxky0s2t94x1c1qhlwr6100000gn/T/jieba.cache
Loading model cost 0.281 seconds.
Prefix dict has been built successfully.
会计年度2001进度: 100%|█████████████████████| 1038/1038 [04:35<00:00,  3.77it/s]
会计年度2002进度: 100%|█████████████████████| 1073/1073 [04:53<00:00,  3.65it/s]
会计年度2003进度: 100%|█████████████████████| 1102/1102 [05:41<00:00,  3.22it/s]
......
会计年度2020进度: 100%|███████████████| 3923/3923 [1:35:32<00:00,  1.46s/it]
会计年度2021进度: 100%|███████████████████| 4412/4412 [2:51:33<00:00,  2.33s/it]
会计年度2022进度: 100%|███████████████████| 4880/4880 [3:23:30<00:00,  2.50s/it]

大邓使用的电脑是 96G 内存, 运行时间大概 12 小时。常见电脑的内存是 16 G, 速度可能会慢一点, 预估 12 ~ 20 小时左右。



六、标准信息、信息含量

以2020年000002为例,计算其标准信息、信息含量。计算成功后,再计算所有年份所有上市公司 md&a的标准信息、信息含量。

原文除了计算md&a,还将md&a区分为回顾过去、展望未来两部分,并分别计算了对应的标准信息、信息含量。这里只计算md&a的标准信息、信息含量。

这里使用Python的统计模型statsmodels库OLS来计算标准信息和信息含量。

import pandas as pd

csv_df = pd.read_csv('mda_infor_output/2020/A000002.csv')
csv_df.head()


#更改字段名
csv_df.columns = ['股票代码''行业代码''会计年度''word_id''Norm''Norm_Ind''Norm_Market']
csv_df.head()


import statsmodels.formula.api as smf

#因变量Norm
#解释变量Norm_Ind、 Norm_Market
formula = 'Norm ~ Norm_Ind + Norm_Market'

model = smf.ols(formula, data=csv_df)
result = model.fit()
print(result.summary())

Run

                            OLS Regression Results                            
==============================================================================
Dep. Variable:                   Norm   R-squared:                       1.000
Model:                            OLS   Adj. R-squared:                  1.000
Method:                 Least Squares   F-statistic:                 5.941e+26
Date:                Mon, 22 Apr 2024   Prob (F-statistic):               0.00
Time:                        10:11:08   Log-Likelihood:             1.0859e+05
No. Observations:                3391   AIC:                        -2.172e+05
Df Residuals:                    3388   BIC:                        -2.171e+05
Df Model:                           2                                         
Covariance Type:            nonrobust                                         
===============================================================================
                  coef    std err          t      P>|t|      [0.025      0.975]
-------------------------------------------------------------------------------
Intercept    2.985e-15    6.9e-17     43.244      0.000    2.85e-15    3.12e-15
Norm_Ind        1.0000   2.92e-14   3.42e+13      0.000       1.000       1.000
Norm_Market  1.554e-15   1.57e-13      0.010      0.992   -3.05e-13    3.09e-13
==============================================================================
Omnibus:                     6850.292   Durbin-Watson:                   0.001
Prob(Omnibus):                  0.000   Jarque-Bera (JB):         22187649.732
Skew:                         -16.342   Prob(JB):                         0.00
Kurtosis:                     397.925   Cond. No.                     3.04e+03
==============================================================================

Notes:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
[2] The condition number is large, 3.04e+03. This might indicate that there are
strong multicollinearity or other numerical problems.

#标准信息
standard_info = result.params.Norm_Ind + result.params.Norm_Market


#信息含量
informative_content = sum(abs(result.resid))


print('A000002标准信息: {}'.format(standard_info))
print('A000002信息含量: {}'.format(informative_content))

Run

A000002标准信息: 1.0000000000000404
A000002信息含量: 1.016101346616714e-11

既然能成功计算某年某公司的标准信息、信息含量,现在推广到所有年份所有公司,计算结果存储为一个csv文件。

%%time

import os
import csv
import statsmodels.formula.api as smf
import pandas as pd
import re


#结果存储到mda_infor.csv
with open('mda_infor2001-2022.csv''w', encoding='utf-8', newline=''as csvf:
    fieldnames = ['股票代码''会计年度''标准信息''信息含量']
    writer = csv.DictWriter(csvf, fieldnames=fieldnames)
    writer.writeheader()
    
    year_dirs = os.listdir('mda_infor_output')
    year_dirs = [y for y in year_dirs if 'DS' not in y]
    for year_dir in year_dirs:
        code_csvfs = ['mda_infor_output/{year}/{csvf}'.format(year=year_dir, csvf=f) 
                      for f in os.listdir('mda_infor_output/{}'.format(year_dir))]
        code_csvfs = [f for f in code_csvfs if 'DS' not in f]
        for csvf in code_csvfs: 
            try:
                csv_df = pd.read_csv(csvf)
                csv_df.columns = ['股票代码''行业代码''会计年度''word_id''Norm''Norm_Ind''Norm_Market']
                formula = 'Norm ~ Norm_Ind + Norm_Market'
                model = smf.ols(formula, data=csv_df)
                result = model.fit()

                #标准信息
                standard_info = result.params.Norm_Ind + result.params.Norm_Market
                #信息含量
                informative_content = sum(abs(result.resid))

                data = {'股票代码': re.findall('\d{6}', csvf)[0], 
                        '会计年度': re.findall('\d{4}', csvf)[0], 
                        '标准信息': standard_info, 
                        '信息含量': informative_content}
                writer.writerow(data)
            except:
                pass

Run

CPU times: user 7min 40s, sys: 33min 5s, total: 40min 45s
Wall time: 4min 36s



读取生成的mda_infor2001-2022.csv  文件,欣赏一下 标准信息、信息含量

import pandas as pd

df = pd.read_csv('mda_infor2001-2022.csv')
df.head()


需要注意,原文选取 2007 — 2015 年中国上市公司年报中的 MD&A 信息作为研究样本。之所以选取 2007 年作为样本的起点, 是因为从 2007 年开始, MD&A 在企业定期报告中的披露要求已经较为完善, 而且 2007 年是中国会计准则国际趋同的重要时点, 新制定的《企业会计准则》已经开始实施, 为避免前后会计准则差异而产生的影响, 因此选取 2007 年作为样本区间的起点。

mda_infor.csv含有2010-2022年的数据,如要复现原文,需要注意筛选数据。

print('mda_infor.csv记录数:',len(df))

Run

mda_infor2001-2022.csv记录数: 50811



七、资料获取

内容创作不易, 200 元,加微信 372335839, 备注「姓名-学校-专业」。

资料截图, 整个资料文件夹体积高达 12 G。






精选内容

LIST | 社科(经管)可用数据集列表
LIST | 文本分析代码列表
LIST | 社科(经管)文本挖掘文献列表
管理科学学报 | 使用「软余弦相似度」测量业绩说明会「答非所问程度」
文献&代码 | 使用Python计算语义品牌评分(Semantic Brand Score)
数据集(更新) | 2001-2022年A股上市公司年报&管理层讨论与分析
数据集(更新) | 372w政府采购合同公告明细数据(2024.03)
数据集  | 人民网政府留言板原始文本(2011-2023.12)
数据集  |  人民日报/经济日报/光明日报 等 7 家新闻数据集
可视化 | 人民日报语料反映七十年文化演变
数据集 | 3571万条专利申请数据集(1985-2022年)
数据集 |  专利转让数据集(1985-2021)
数据集 |  3394w条豆瓣书评数据集
数据集 | 豆瓣电影影评数据集
数据集 |  使用1000w条豆瓣影评训练Word2Vec
代码 | 使用 3571w 专利申请数据集构造面板数据
代码 | 使用「新闻数据集」计算 「经济政策不确定性」指数
数据集 | 国省市三级gov工作报告文本
代码 | 使用「新闻数据」生成概念词频「面板数据」
代码 | 使用 3571w 专利申请数据集构造面板数据
代码 | 使用gov工作报告生成数字化词频「面板数据」
继续滑动看下一个
大邓和他的Python
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存