vae博客(怎么理解生成模型VAE)

1. vae博客,怎么理解生成模型VAE?

代码详解:一文读懂自动编码器的前世今生,希望对你有帮助~

全文共5718字,预计学习时长20分钟或更长

变分自动编码器(VAE)可以说是最实用的自动编码器,但是在讨论VAE之前,还必须了解一下用于数据压缩或去噪的传统自动编码器。

变分自动编码器的厉害之处

假设你正在开发一款开放性世界端游,且游戏里的景观设定相当复杂。

你聘用了一个图形设计团队来制作一些植物和树木以装饰游戏世界,但是将这些装饰植物放进游戏中之后,你发现它们看起来很不自然,因为同种植物的外观看起来一模一样,这时你该怎么办呢?

首先,你可能会建议使用一些参数化来尝试随机地改变图像,但是多少改变才足够呢?又需要多大的改变呢?还有一个重要的问题:实现这种改变的计算强度如何?

这是使用变分自动编码器的理想情况。我们可以训练一个神经网络,使其学习植物的潜在特征,每当我们将一个植物放入游戏世界中,就可以从“已学习”的特征中随机抽取一个样本,生成独特的植物。事实上,很多开放性世界游戏正在通过这种方法构建他们的游戏世界设定。

再看一个更图形化的例子。假设我们是一个建筑师,想要为任意形状的建筑生成平面图。可以让一个自动编码器网络基于任意建筑形状来学习数据生成分布,它将从数据生成分布中提取样本来生成一个平面图。详见下方的动画。

对于设计师来说,这些技术的潜力无疑是最突出的。

再假设我们为一个时装公司工作,需要设计一种新的服装风格,可以基于“时尚”的服装来训练自动编码器,使其学习时装的数据生成分布。随后,从这个低维潜在分布中提取样本,并以此来创造新的风格。

在该节中我们将研究fashion MNIST数据集。

自动编码器

传统自动编码器

自动编码器其实就是非常简单的神经结构。它们大体上是一种压缩形式,类似于使用MP3压缩音频文件或使用jpeg压缩图像文件。

自动编码器与主成分分析(PCA)密切相关。事实上,如果自动编码器使用的激活函数在每一层中都是线性的,那么瓶颈处存在的潜在变量(网络中最小的层,即代码)将直接对应(PCA/主成分分析)的主要组件。通常,自动编码器中使用的激活函数是非线性的,典型的激活函数是ReLU(整流线性函数)和sigmoid/S函数。

网络背后的数学原理理解起来相对容易。从本质上看,可以把网络分成两个部分:编码器和解码器。

编码器函数用ϕ表示,该函数将原始数据X映射到潜在空间F中(潜在空间F位于瓶颈处)。解码器函数用ψ表示,该函数将瓶颈处的潜在空间F映射到输出函数。此处的输出函数与输入函数相同。因此,我们基本上是在一些概括的非线性压缩之后重建原始图像。

编码网络可以用激活函数传递的标准神经网络函数表示,其中z是潜在维度。

相似地,解码网络可以用相同的方式表示,但需要使用不同的权重、偏差和潜在的激活函数。

随后就可以利用这些网络函数来编写损失函数,我们会利用这个损失函数通过标准的反向传播程序来训练神经网络。

由于输入和输出的是相同的图像,神经网络的训练过程并不是监督学习或无监督学习,我们通常将这个过程称为自我监督学习。自动编码器的目的是选择编码器和解码器函数,这样就可以用最少的信息来编码图像,使其可以在另一侧重新生成。

如果在瓶颈层中使用的节点太少,重新创建图像的能力将受到限制,导致重新生成的图像模糊或者和原图像差别很大。如果使用的节点太多,那么就没必要压缩了。

压缩背后的理论其实很简单,例如,每当你在Netflix下载某些内容时,发送给你的数据都会被压缩。一旦这个内容传输到电脑上就会通解压算法在电脑屏幕显示出来。这类似于zip文件的运行方式,只是这里说的压缩是在后台通过流处理算法完成的。

去噪自动编码器

有几种其它类型的自动编码器。其中最常用的是去噪自动编码器,本教程稍后会和Keras一起进行分析。这些自动编码器在训练前给数据添加一些白噪声,但在训练时会将误差与原始图像进行比较。这就使得网络不会过度拟合图像中出现的任意噪声。稍后,将使用它来清除文档扫描图像中的折痕和暗黑区域。

稀疏自动编码器

与其字义相反的是,稀疏自动编码器具有比输入或输出维度更大的潜在维度。然而,每次网络运行时,只有很小一部分神经元会触发,这意味着网络本质上是“稀疏”的。稀疏自动编码器也是通过一种规则化的形式来减少网络过度拟合的倾向,这一点与去噪自动编码器相似。

收缩自动编码器

收缩编码器与前两个自动编码器的运行过程基本相同,但是在收缩自动编码器中,我们不改变结构,只是在丢失函数中添加一个正则化器。这可以被看作是岭回归的一种神经形式。

现在了解了自动编码器是如何运行的,接下来看看自动编码器的弱项。一些最显著的挑战包括:

· 潜在空间中的间隙

· 潜在空间中的可分性

· 离散潜在空间

这些问题都在以下图中体现。

MNIST数据集的潜在空间表示

这张图显示了潜在空间中不同标记数字的位置。可以看到潜在空间中存在间隙,我们不知道字符在这些空间中是长什么样的。这相当于在监督学习中缺乏数据,因为网络并没有针对这些潜在空间的情况进行过训练。另一个问题就是空间的可分性,上图中有几个数字被很好地分离,但也有一些区域被标签字符是随机分布的,这让我们很难区分字符的独特特征(在这个图中就是数字0-9)。还有一个问题是无法研究连续的潜在空间。例如,我们没有针对任意输入而训练的统计模型(即使我们填补了潜在空间中的所有间隙也无法做到)。

这些传统自动编码器的问题意味着我们还要做出更多努力来学习数据生成分布并生成新的数据与图像。

现在已经了解了传统自动编码器是如何运行的,接下来讨论变分自动编码器。变分自动编码器采用了一种从贝叶斯统计中提取的变分推理形式,因此会比前几种自动编码器稍微复杂一些。我们会在下一节中更深入地讨论变分自动编码器。

变分自动编码器

变分自动编码器延续了传统自动编码器的结构,并利用这一结构来学习数据生成分布,这让我们可以从潜在空间中随机抽取样本。然后,可以使用解码器网络对这些随机样本进行解码,以生成独特的图像,这些图像与网络所训练的图像具有相似的特征。

对于熟悉贝叶斯统计的人来说,编码器正在学习后验分布的近似值。这种分布通常很难分析,因为它没有封闭式的解。这意味着我们要么执行计算上复杂的采样程序,如马尔可夫链蒙特卡罗(MCMC)算法,要么采用变分方法。正如你可能猜测的那样,变分自动编码器使用变分推理来生成其后验分布的近似值。

我们将会用适量的细节来讨论这一过程,但是如果你想了解更深入的分析,建议你阅览一下Jaan Altosaar撰写的博客。变分推理是研究生机器学习课程或统计学课程的一个主题,但是了解其基本概念并不需要拥有一个统计学学位。

若对背后的数学理论不感兴趣,也可以选择跳过这篇变分自动编码器(VAE)编码教程。

首先需要理解的是后验分布以及它无法被计算的原因。先看看下面的方程式:贝叶斯定理。这里的前提是要知道如何从潜变量“z”生成数据“x”。这意味着要搞清p(z|x)。然而,该分布值是未知的,不过这并不重要,因为贝叶斯定理可以重新表达这个概率。但是这还没有解决所有的问题,因为分母(证据)通常很难解。但也不是就此束手无辞了,还有一个挺有意思的办法可以近似这个后验分布值。那就是将这个推理问题转化为一个优化问题。

要近似后验分布值,就必须找出一个办法来评估提议分布与真实后验分布相比是否更好。而要这么做,就需要贝叶斯统计员的最佳伙伴:KL散度。KL散度是两个概率分布相似度的度量。如果它们相等,那散度为零;而如果散度是正值,就代表这两个分布不相等。KL散度的值为非负数,但实际上它不是一个距离,因为该函数不具有对称性。可以采用下面的方式使用KL散度:

这个方程式看起来可能有点复杂,但是概念相对简单。那就是先猜测可能生成数据的方式,并提出一系列潜在分布Q,然后再找出最佳分布q*,从将提议分布和真实分布的距离最小化,然后因其难解性将其近似。但这个公式还是有一个问题,那就是p(z|x)的未知值,所以也无法计算KL散度。那么,应该怎么解决这个问题呢?

这里就需要一些内行知识了。可以先进行一些计算上的修改并针对证据下界(ELBO)和p(x)重写KL散度:

有趣的是ELBO是这个方程中唯一取决于所选分布的变量。而后者由于不取决于q,则不受所选分布的影响。因此,可以在上述方程中通过将ELBO(负值)最大化来使KL散度最小化。这里的重点是ELBO可以被计算,也就是说现在可以进行一个优化流程。

所以现在要做的就是给Q做一个好的选择,再微分ELBO,将其设为零,然后就大功告成了。可是开始的时候就会面临一些障碍,即必须选择最好的分布系列。

一般来说,为了简化定义q的过程,会进行平均场变分推理。每个变分参数实质上是相互独立的。因此,每个数据点都有一个单独的q,可被相称以得到一个联合概率,从而获得一个“平均场”q。

实际上,可以选用任意多的场或者集群。比如在MINIST数据集中,可以选择10个集群,因为可能有10个数字存在。

要做的第二件事通常被称为再参数化技巧,通过把随机变量带离导数完成,因为从随机变量求导数的话会由于它的内在随机性而产生较大的误差。

再参数化技巧较为深奥,但简单来说就是可以将一个正态分布写成均值加标准差,再乘以误差。这样在微分时,我们不是从随机变量本身求导数,而是从它的参数求得。

这个程序没有一个通用的闭型解,所以近似后验分布的能力仍然受到一定限制。然而,指数分布族确实有一个闭型解。这意味着标准分布,如正态分布、二项分布、泊松分布、贝塔分布等。所以,就算真正的后验分布值无法被查出,依然可以利用指数分布族得出最接近的近似值。

变分推理的奥秘在于选择分布区Q,使其足够大以求得后验分布的近似值,但又不需要很长时间来计算。

既然已经大致了解如何训练网络学习数据的潜在分布,那么现在可以探讨如何使用这个分布生成数据。

数据生成过程

观察下图,可以看出对数据生成过程的近似认为应生成数字‘2’,所以它从潜在变量质心生成数值2。但是也许不希望每次都生成一摸一样的数字‘2’,就好像上述端游例子所提的植物,所以我们根据一个随机数和“已学”的数值‘2’分布范围,在潜在空间给这一过程添加了一些随机噪声。该过程通过解码器网络后,我们得到了一个和原型看起来不一样的‘2’。

这是一个非常简化的例子,抽象描述了实际自动编码器网络的体系结构。下图表示了一个真实变分自动编码器在其编码器和解码器网络使用卷积层的结构体系。从这里可以观察到,我们正在分别学习潜在空间中生成数据分布的中心和范围,然后从这些分布“抽样”生成本质上“虚假”的数据。

该学习过程的固有性代表所有看起来很相似的参数(刺激相同的网络神经元放电)都聚集到潜在空间中,而不是随意的分散。如下图所示,可以看到数值2都聚集在一起,而数值3都逐渐地被推开。这一过程很有帮助,因为这代表网络并不会在潜在空间随意摆放字符,从而使数值之间的转换更有真实性。

整个网络体系结构的概述如下图所示。希望读者看到这里,可以比较清晰地理解整个过程。我们使用一组图像训练自动编码器,让它学习潜在空间里均值和标准值的差,从而形成我们的数据生成分布。接下来,当我们要生成一个类似的图像,就从潜在空间的一个质心取样,利用标准差和一些随机误差对它进行轻微的改变,然后使其通过解码器网络。从这个例子可以明显看出,最终的输出看起来与输入图像相似,但却是不一样的。

变分自动编码器编码指南

本节将讨论一个简单的去噪自动编码器,用于去除文档扫描图像上的折痕和污痕,以及去除Fashion MNIST数据集中的噪声。然后,在MNIST数据集训练网络后,就使用变分自动编码器生成新的服装。

去噪自编码器

Fashion MNIST

在第一个练习中,在Fashion MNIST数据集添加一些随机噪声(椒盐噪声),然后使用去噪自编码器尝试移除噪声。首先进行预处理:下载数据,调整数据大小,然后添加噪声。

## Download the data(x_train, y_train), (x_test, y_test) = datasets.fashion_mnist.load_data()## normalize and reshapex_train = x_train/255.x_test = x_test/255.x_train = x_train.reshape(-1, 28, 28, 1)x_test = x_test.reshape(-1, 28, 28, 1)# Lets add sample noise - Salt and Peppernoise = augmenters.SaltAndPepper(0.1)seq_object = augmenters.Sequential([noise])train_x_n = seq_object.augment_images(x_train * 255) / 255val_x_n = seq_object.augment_images(x_test * 255) / 255

接着,给自编码器网络创建结构。这包括多层卷积神经网络、编码器网络的最大池化层和解码器网络上的升级层。

# input layerinput_layer =Input(shape=(28, 28, 1))# encodingarchitectureencoded_layer1= Conv2D(64, (3, 3), activation='relu', padding='same')(input_layer)encoded_layer1= MaxPool2D( (2, 2), padding='same')(encoded_layer1)encoded_layer2= Conv2D(32, (3, 3), activation='relu', padding='same')(encoded_layer1)encoded_layer2= MaxPool2D( (2, 2), padding='same')(encoded_layer2)encoded_layer3= Conv2D(16, (3, 3), activation='relu', padding='same')(encoded_layer2)latent_view = MaxPool2D( (2, 2),padding='same')(encoded_layer3)# decodingarchitecturedecoded_layer1= Conv2D(16, (3, 3), activation='relu', padding='same')(latent_view)decoded_layer1= UpSampling2D((2, 2))(decoded_layer1)decoded_layer2= Conv2D(32, (3, 3), activation='relu', padding='same')(decoded_layer1)decoded_layer2= UpSampling2D((2, 2))(decoded_layer2)decoded_layer3= Conv2D(64, (3, 3), activation='relu')(decoded_layer2)decoded_layer3= UpSampling2D((2, 2))(decoded_layer3)output_layer = Conv2D(1, (3, 3), padding='same',activation='sigmoid')(decoded_layer3)# compile themodelmodel =Model(input_layer, output_layer)model.compile(optimizer='adam',loss='mse')# run themodelearly_stopping= EarlyStopping(monitor='val_loss', min_delta=0, patience=10, verbose=5,mode='auto')history =model.fit(train_x_n, x_train, epochs=20, batch_size=2048,validation_data=(val_x_n, x_test), callbacks=[early_stopping])

所输入的图像,添加噪声的图像,和输出图像。

从时尚MNIST输入的图像。

添加椒盐噪声的输入图像。

从去噪网络输出的图像。

从这里可以看到,我们成功从噪声图像去除相当的噪声,但同时也失去了一定量的服装细节的分辨率。这是使用稳健网络所需付出的代价之一。可以对该网络进行调优,使最终的输出更能代表所输入的图像。

文本清理

去噪自编码器的第二个例子包括清理扫描图像的折痕和暗黑区域。这是最终获得的输入和输出图像。

输入的有噪声文本数据图像。

经清理的文本图像。

为此进行的数据预处理稍微复杂一些,因此就不在这里进行介绍,预处理过程和相关数据可在GitHub库里获取。网络结构如下:

input_layer= Input(shape=(258, 540, 1))#encoderencoder= Conv2D(64, (3, 3), activation='relu', padding='same')(input_layer)encoder= MaxPooling2D((2, 2), padding='same')(encoder)#decoderdecoder= Conv2D(64, (3, 3), activation='relu', padding='same')(encoder)decoder= UpSampling2D((2, 2))(decoder)output_layer= Conv2D(1, (3, 3), activation='sigmoid', padding='same')(decoder)ae =Model(input_layer, output_layer)ae.compile(loss='mse',optimizer=Adam(lr=0.001))batch_size= 16epochs= 200early_stopping= EarlyStopping(monitor='val_loss',min_delta=0,patience=5,verbose=1,mode='auto')history= ae.fit(x_train, y_train, batch_size=batch_size, epochs=epochs,validation_data=(x_val, y_val), callbacks=[early_stopping])

变分自编码器

最后的压轴戏,是尝试从FashionMNIST数据集现有的服装中生成新图像。

其中的神经结构较为复杂,包含了一个称‘Lambda’层的采样层。

batch_size = 16latent_dim = 2 # Number of latent dimension parameters# ENCODER ARCHITECTURE: Input -> Conv2D*4 -> Flatten -> Denseinput_img = Input(shape=(28, 28, 1))x = Conv2D(32, 3,padding='same', activation='relu')(input_img)x = Conv2D(64, 3,padding='same', activation='relu',strides=(2, 2))(x)x = Conv2D(64, 3,padding='same', activation='relu')(x)x = Conv2D(64, 3,padding='same', activation='relu')(x)# need to know the shape of the network here for the decodershape_before_flattening = K.int_shape(x)x = Flatten()(x)x = Dense(32, activation='relu')(x)# Two outputs, latent mean and (log)variancez_mu = Dense(latent_dim)(x)z_log_sigma = Dense(latent_dim)(x)## SAMPLING FUNCTIONdef sampling(args):z_mu, z_log_sigma = args epsilon = K.random_normal(shape=(K.shape(z_mu)[0], latent_dim),mean=0., stddev=1.)return z_mu + K.exp(z_log_sigma) * epsilon# sample vector from the latent distributionz = Lambda(sampling)([z_mu, z_log_sigma])## DECODER ARCHITECTURE# decoder takes the latent distribution sample as inputdecoder_input = Input(K.int_shape(z)[1:])# Expand to 784 total pixelsx = Dense(np.prod(shape_before_flattening[1:]),activation='relu')(decoder_input)# reshapex = Reshape(shape_before_flattening[1:])(x)# use Conv2DTranspose to reverse the conv layers from the encoderx = Conv2DTranspose(32, 3,padding='same', activation='relu',strides=(2, 2))(x)x = Conv2D(1, 3,padding='same', activation='sigmoid')(x)# decoder model statementdecoder = Model(decoder_input, x)# apply the decoder to the sample from the latent distributionz_decoded = decoder(z)这就是体系结构,但还是需要插入损失函数再合并KL散度。# construct a custom layer to calculate the lossclass CustomVariationalLayer(Layer):def vae_loss(self, x, z_decoded):x = K.flatten(x)z_decoded = K.flatten(z_decoded)# Reconstruction lossxent_loss = binary_crossentropy(x, z_decoded)# KL divergencekl_loss = -5e-4 * K.mean(1 + z_log_sigma - K.square(z_mu) - K.exp(z_log_sigma), axis=-1)return K.mean(xent_loss + kl_loss)# adds the custom loss to the classdef call(self, inputs):x = inputs[0]z_decoded = inputs[1]loss = self.vae_loss(x, z_decoded)self.add_loss(loss, inputs=inputs)return x# apply the custom loss to the input images and the decoded latent distribution sampley = CustomVariationalLayer()([input_img, z_decoded])# VAE model statementvae = Model(input_img, y)vae.compile(optimizer='rmsprop', loss=None)vae.fit(x=train_x, y=None,shuffle=True,epochs=20,batch_size=batch_size,validation_data=(val_x, None))

现在,可以查看重构的样本,看看网络能够学习到什么。

从这里可以清楚看到鞋子、手袋和服装之间的过渡。在此并没有标出所有使画面更清晰的潜在空间。也可以观察到Fashion MNIST数据集现有的10件服装的潜在空间和颜色代码。

可看出这些服饰分成了不同的集群。

留言 点赞 关注

我们一起分享AI学习与发展的干货

欢迎关注全平台AI垂类自媒体 “读芯术”

vae博客(怎么理解生成模型VAE)

2. 许嵩写过的书有哪些?

《伤痕当酒窝》、《和尚》、《噪音有一个分贝》、《磨刀》、《模仿》这些文章……许嵩的写作能力是很强的,在高中时曾在《儿童文学》,《萌芽》等杂志上发表过自己的文学作品。 在高中时,写了一篇《把伤痕当酒窝》发到博客上,被作为当年江苏省高考模拟卷的阅读题。

3. 为什么一个艺人会过气?

人无千日好,花无百日红。在当下这个环境,走错一步就凉了。作品不能持续高质量输出,慢慢就隐退了。容颜老去,长江后浪推前浪,观众转头就忘了。一个艺人过气各有各的原因,但是大概可以分为以下几种:

1 公司不给力型:有很多艺人本身的实力还是不错的,但是因为背后的经纪公司不给力,直接导致了艺人慢慢淡出观众视野,让当年的辉煌成为昙花一现。就如当年的后弦,作为一个歌手,他的《西厢》《娃娃脸》曾经火爆全网,甚至可以和许嵩抗衡。后来后弦本想借着大好势头大火一把,但经纪公司的不给力直接导致了后弦后面的发展受阻。先是新歌一直没办法发布,还闹了个demo流出的大乌龙,而后各种宣传也跟不上,这一系列的操作,不然没有让后弦这燃烧起来的火苗变成大火,反而直接把后弦扑灭了。同类型的还有张含韵,当年爆火的张含韵,大街小巷都在放她的《酸酸甜甜就是我》但后来08年经融危机,她所在的经纪公司无力去为她做宣传,没了后台支持,没了通告,后来一度消失在众人视线中。所以再好的实力,签约的公司不行,同样得凉凉。

2口碑崩塌型:一个艺人如果在观众这里口碑人设崩塌,那对一个艺人而言导致的结果很有可能就是致命的。例如前几天高居热榜的时间管理大师罗志祥。还有。被媒体誉为中国山口百惠的金莎,作为林俊杰直系师妹,演过电视剧,拍过MV,凭借甜美的长相赢得了很多观众的喜爱,按理说这样的金莎应该是前景大好啊。可是没想到后来的“博客门”事件使她人设崩塌。金莎在博客上跟别人对掐,最后还被告了。甜美可爱的少女形象被“泼妇”一词搞崩了。后来还被传出整容的新闻,本来就挺好看的长相变得大众化。直接沦为十八线小明星。同样的还有一手牌打烂的李小璐,以及《金粉世家》中饰演冷清秋的董洁。

3主动隐退型:做艺人也只是一份职业,一个选择。有不少的艺人选择急流勇退,在事业大火时,息影、转行、结婚等等,主动“过气”。就如周杰,曾经出演的《还珠格格》《少年包青天》一度大火,现在他的表情包在互联网上也是热度不减。但是他选择在演艺事业大火之际,选择退出了娱乐圈,去做投资人、去做红酒、做大米、去搞公益,现在做得风生水起。果然厉害的人,在其它方面也是不会差的。还有董璇,早些年她出演了很多优秀的影视作品,凭借实力收获了很多观众的喜爱。当年的《雪花女神龙》《八大豪侠》《三国机密》让董璇大火。然而2011年她和高云翔结婚之后,就慢慢淡出娱乐圈,观众们也逐渐忘记了她。

4 转型困难型:一个艺人想要长期发展,除了自身实力的因素,还要根据自己的情况进行转型,扩宽自己的事业道路,不然到了后期,事业发展遇到瓶颈,会对以后的发展产生极大的影响。就如被称为“宅男女神”的赵奕欢,因为饰演网剧《青春期》而走红,赵奕欢长相甜美,身材也好。按理说事业前景还是很可观的,但是后来出演的类型都是一样的,没有什么大突破,同时作品都是一些质量不高的网剧,于是就被观众渐渐遗忘。同时凭借《功夫》被人熟知的黄圣依出道既巅峰。而后出演的角色都没有太大的突破,直接过气。曾经出演过大量偶像剧的立威廉,在大量的影视剧中都是塑造霸道总裁人设。几乎每一部作品人物形象都大同小异,后面随着偶像剧的没落,立威廉也渐渐淡出大众视野。

其他的还有很多只凭外貌出道,却没有实力的人。没过多久自然而然就被后面的新人给挤走。还有凭借一部作品就大火,却没有推出新作品的艺人们,久而久之就被遗忘了。所以每一行都不容易啊。小伙伴们瓜吃完了,继续搬砖吧……

4. 许嵩个人简历?

中文名: 许嵩

外文名: Vae

国籍: 中国

民族: 汉

出生地: 安徽合肥

出生日期: 1986年5月14日

毕业院校: 安徽医科大学

代表作品: 《寻雾启示》(2010)、《自定义》(2009)

主要成就: 安徽省十佳青年学生(2008)

05年度华人娱乐网最佳男歌手

【个人资料】

别名:小V、VV、小嵩 性别:男 身高:180cm 体重:60kg 生日: 1986-05-14 出生地:安徽合肥 属相:虎 星座:金牛座 血型:O型 粉丝名:V迷(官方歌迷统一称呼)也有歌迷互称“嵩迷”“嵩鼠”“嵩果等 专长:作曲、作词、音乐制作 学历:本科 (安徽医科大学毕业) 小时候的梦想:开发出如同windows一样厉害的操作系统 最满意的动画:哆啦A梦 喜爱的音乐类型:各种类型 通常衣着:休闲随意 最喜爱的食物:对吃没有兴趣 最喜欢的地方:家 Vae的宠物:格洛米(《有何不可》里提过),一只可爱的狗狗

主要成绩:

2005年度华人娱乐网最佳男歌手。 2006年度新浪盛典“年度网络红人”提名。 2006年12月,作为网络最红人代表,受联想集团邀请,参加联想“粉时尚”手机发布会,并创作“粉时尚”手机主题音乐《粉色信笺》。 2007年5月加入安徽省音乐家协会,成为省内最年轻音乐家会员之一。 2008年5月,即将完成本科学业的许嵩,荣获了安徽省十佳青年学生称号。全省全民票选票数第一,高达320万票。Vae出色的综合素质和低调的行事风格受到一致肯定。 2008年为搜狐公司的网游巨作《剑仙》制作并演唱主题曲《南山忆》,一时间风靡仙侠类游戏圈。 09年1月,出版首张唱片《自定义》,独立包办词、曲、编曲、唱、录音、制作等一切工作。业界口碑不俗,销量亦甚佳。 2010年1月6日第二张独立创作专辑《寻雾启示》发行。 2010年4月应搜狐之邀约,创作并演唱《半城烟沙》,作为搜狐公司旗下网游《天龙八部2》的主题曲。 2010年6月为联想集团新产品“LE Phone”制作并演唱15秒广告音乐,于世界杯开幕战前央视5套首播。 许嵩歌迷论坛“VaeCn”为迄今为止内地歌手中人气最高、注册会员最多、流量最大的论坛。2010年6月,注册会员达到20万。全国30个省份后援会成立并迅速壮大,从黑龙江至广东,上海至新疆……天南海北,无处没有“V迷”。 【个人简介】 Vae许嵩不仅仅是一位独特、独立的歌手、词曲人、音乐制作人,更是网络音乐时代巅峰时期的代表人物之一。普遍认为Vae既传承了香香、东来东往等第一代网络明星的草根明星人气,又把网络音乐水准提升到了一个新的层次,在相当程度上改变了人们对于“网络歌曲就等于老鼠爱大米那种俗歌”的印象。超强的网络人气+够味道的作品,成就了Vae在网络时代的大红大紫。随着网络音乐的日渐势微,2009年1月,Vae昂首阔步出版了独立实体唱片《自定义》,2010年1月,Vae又推出了第二张独立创作专辑《寻雾启示》,包揽了专辑全部词曲创作和制作,好评如潮。与此同时,关于Vae的话题和争议却从未停止过。 在现身网络的三年时间内,凭借《城府》、《如果当时》、《七号公园》、《有何不可、《玫瑰花的葬礼》、《你若成风》、《清明雨上》、《多余的解释》、《墨尔本,晴》、《灰色头像》、《飞蛾》、《不煽情》等大量风格独特的原创作品受到听众喜爱,屡获各大门户网站评选出的最佳男歌手、最佳词曲作者等奖项。09年12月10日,第二张独立创作专辑《寻雾启示》二度主打《庐州月》在其官网首发,《庐州月》是其官网歌迷投票选出的二波主打。再度引发“V式中国风”热潮。Vae不仅精通作词、作曲、编曲,所有作品的录音与后期混音工程也均由其一手包办,可见Vae全方位的音乐能力与极高的音乐素养。 至今不签约唱片公司、极少在镜头前曝光、处事极为低调的Vae——随便搜一下,却发现他拥有着海量粉丝和超高人气,一点点风吹草动即为粉丝们所津津乐道。为什么许嵩的人气一直如此之高?撇开音乐方面的技艺不谈,他简单、率性、低调的行事风格也一直为朋友以及大批资深乐迷所赞。06-09年,那些作词、作曲、编曲、演唱、录音混音全由Vae一人完成的作品,在其歌迷论坛一经推出,就意料之中的进入各大门户网站以及诸多电台的原创排行榜。这在唱片工业化、音乐商业化的今天不能不说是一个小奇迹——无公司力捧,零投资运作,却真正虏获了歌迷、音乐编辑、乐评人们的心,让人自发的推荐、口口相传他的作品 在过人的音乐天赋之外,许嵩亦长于写作,学生时代在《萌芽》、《儿童文学》、《少年文艺》等刊物上发表了大大小小作品20余篇。高二时,他曾写过一篇《把伤痕当酒窝》的作文,“当时只是兴趣所至,就发到了个人主页上。”但让他没想到的是,这篇习作后来竟被当年江苏省高考语文模拟试卷作为阅读理解的试题。目前他的新浪博客访问量和转载量都非常高。较有名的是《和尚》以及《把伤痕当酒窝》。 除了写作,许嵩的电脑也玩得很棒。2001年高一时即获得“迅飞”杯全国网页设计大赛安徽第一名。 2008年5月,在许嵩大学毕业前夕,他凭借着出色的综合素质,荣获安徽省十佳青年学生称号。 2009年1月,许嵩以一己之力出版独立唱片《自定义》,包揽了词曲及制作,口碑极佳,他也创下内地独立音乐的典范,亦成为众多80后音乐人效法的对象。 2010年1月,第二张专辑《寻雾启示》发行,初回限量版预售极为火爆,远远超乎意料。

[

参考资料:许嵩 百科名片

5. 哪首歌的故事许嵩在博客里写过?

在163888音乐网上,他申请了自己的个人主页,然后把自己创作的一些歌贴上去。

他的第一首原创歌曲叫《七号公园》,只花一早 上的时间就写好了。这首歌由同学填词,许嵩作曲、演唱,没想到推出后就受到网友追捧,但现实是这首歌就像是一支无心插下的柳枝确实给他带来了太多。不过,他从不觉得自己只是简单地走了狗屎运而已。 由于有电脑知识打底,又有对文字和情绪的准确拿捏《七号公园》才得以以比较完整的形式出现在人们面前,且被人深深记住。

6. 许嵩为什么叫松鼠?

许嵩被称为“松鼠”有几个可能的原因:

1. 这绰号的直接原因是许嵩本人的名字“嵩”与松鼠“松”的发音相近。“松鼠”是对“嵩”一词的谐音改编,具有 nickname 的典型特征。

2. 许嵩本人也喜欢这个外号。早在出道初期,许嵩就将自己的博客命名为“松鼠博客”。而他的歌迷也普遍接受和使用这个可爱的外号来呼唤许嵩。

3. 许嵩以前的发型也与松鼠有一定兴趣。他曾经留有一头类似松鼠厚刘海的发型,这也增加了这一外号的趣味与可信度。

4. 松鼠给人一种活泼开朗、充满朝气的印象。而许嵩本人在艺人形象上也符合这样一种积极向上而又青春阳光的气质。“松鼠”这一外号在某种程度上也象征了这一点。

5. 许嵩的歌迷也希望自己的偶像有一个亲切可爱的外号。而“松鼠”这样一个来源于本名发音的昵称正符合这一需求,易于推广和记忆,因而广受歌迷接纳。

7. 你追过最糊的明星有多糊?

三年前追过黄龄,那会她还没进B站,没这么多粉丝,我也是好声音听到high歌才关注她的,后来听了她唱的几首其他歌,觉得她唱功还有音色真的很好,不过最让人糟心的是网上想找相关视频真的挺难,来来回回就那么几个,清晰度也很糊。感谢B站,也感谢黄龄能一直保持自己的本心,她现在小火了一些,感觉挺欣慰的。

顺便安利下黄龄吧,B站混剪用的比较多的BGM《风月》、《惊鸿一面》都是黄龄的作品;还有大家比较熟知的《痒》、《high歌》;我个人推荐她的《禁区》和《恶之花》。

黄龄最知名的称号“浴室歌手”和“转音歌姬”,前一个是因为她经常会发一些自己在浴室唱歌的自拍,后一个则是因为她唱的很多歌都有大量高难度的转音,大概是因为她是胡彦斌的师妹?

出道的时候,还有很多人说她的音色像王菲,黄龄也曾在多个节目比如:百变大咖秀和蒙面歌手里唱过王菲的歌,很多王菲歌迷戏称,王菲长时间不出来唱歌的时候,只好听黄龄的过过瘾。

黄龄翻唱的歌曲都很有自己的风格,《处处吻》《易燃易爆炸》《消愁》等等都很好听,我觉得她挺适合影视剧主题曲的。

黄龄和许嵩合作的《惊鸿一面》,和薛之谦合唱的《来日方长》,和杨宗纬合唱的《凉凉》,还有和周深在两个人“深龄其境”演唱会上的合作都很经典。

现在黄龄上了《乘风破浪的姐姐》,B站也有了150多万的粉丝,希望大家都能去听一下她的歌,也希望黄龄以后能越走越好。

免责声明:本文作者:“游客”,版权归作者所有,观点仅代表作者本人。本站仅提供信息存储分享服务,不拥有所有权。信息贵在分享,如有侵权请联系ynstorm@foxmail.com,我们将在24小时内对侵权内容进行删除。
(188)
爱在日落之前泰语版(爱在黎明破晓前三部曲
上一篇 2023年11月30日
whiteflag(flag造句简单七年
下一篇 2023年11月30日

相关推荐

  • 同声传译(同声传译需要具备什么能力和条件)

    同声传译是一种受时间严格限制难度极高的语际转换活动,它要求译员在听辨源语言讲话的同时,借助已有的主题知识,在极短的时间内迅速完成对源语言信息的预测、理解、记忆和转换,同时要对目标语言进行监听、组织、修正和表达,说出目标语言的译文。...

    2023年11月11日
  • 亲爱的我爱你吗(男情人说我非常爱你)

    意思是说明他心里非常的在意你,你在他心里是非常重要的。他觉得你各方面都是那样的优秀,也非常值得他去爱。他就是要跟你两个人一起去一生一世永远的来相爱,永生永世永远的来相伴了。他就是想跟你两个人能够恩恩爱爱,美美满满,幸幸福福,甜甜蜜蜜之只手,与...

    2023年11月12日
  • 俯(和頫还有俛三个字是什么关系)

    6、上校拍着阵地上的泥土高兴得大叫大嚷,招来一片枪弹射至,连忙俯身卧倒,弹花崩起的尘泥落了他一后背。...

    2023年11月20日
  • 自由风(切花的自由月季的优缺点)

    4、鲜艳的色彩。自由月亮花的颜色是一种很新鲜的颜色,鲜粉色。尤其是当女人看到它时,它确实是花姑娘的心。...

    2023年11月21日
  • anyclub(有节奏感的欢快青春歌曲)

    爱朵女孩的《恋爱声明》《奇异旅程》bigbang《lie》李孝利《anyclub》《对着天空说爱你》(英文版,超有韵味)...

    2023年11月21日
  • 热辣辣的意思(晌午的太阳热辣辣的照射大地缩句)

    响午的太阳热辣辣的照射大地,缩句应该是:太阳照射大地。为什么这么缩句呢?因为这句话的主干也就是主要的意思是太阳照射大地。缩句的主要目的是找出它的主干,而把其他的附加成分,也就是修饰或限制成分给他去掉了,这样主干就露出来了,缩句也就成功了,这是...

    2023年11月24日
  • shenzuo(强作精神读音)

    1.勉力而做。《孔丛子·执节》:“魏安釐王问天下之高士,子顺曰:‘世无其人也。抑可以为次,其鲁仲连乎?’王曰:‘鲁仲连强作之者,非体自然也。’答曰:‘人皆作之,作之不止,乃成君子。’”...

    2023年11月27日
  • kukje(kokutaku套胶是正手胶吗)

    kokutaku品牌翻译过来叫樱花,这个套胶价格很便宜,基本集中在五十以内,性能的话确实很符合它的价格,乏善可陈,正反手随便用吧,反正都不怎么好用,本人测试过黄金版kokutaku套胶,感受就是放在正手支撑不行光脆不弹,放在反手透板不行,入门...

    2023年11月28日
  • 左滚右滚(哪些明星出糗的瞬间)

    日本很多综艺节目都是无节操、恶趣味、笑点横飞。明星上综艺都是在毫不知情的情况下恶搞出糗,真实而又搞笑。...

    2023年11月28日
  • isp服务商(请问服务器托管大家都是在哪弄的)

    跟着互联网时代的脚步,对于服务器的了解相信站长们都非常的熟悉。相比前几年站长们对服务器大部分只停留在租用上面,并不是很了解服务器托管,因此有想法想托管也无从下手。现在这两年服务器托管更多人去谈论去分享,大部分站长有条件的情况下也就比较选择服务...

    2023年12月04日
返回顶部