Audio 如何使用sox将mp3wav转换为未压缩的wav?

如何使用sox将mp3wav(mp3格式的压缩wav)转换为未压缩wav(PCM) mp3wav示例文件可在此处下载:我原以为以下方法简单可行: sox file.mp3 file.wav 可能是你的sox版本根本不处理MP3文件。我想最近openSUSE的默认RPM出现了这种情况…不,它不是.mp3文件。它是一个压缩的.mp3格式的.wav文件。我有最新版本的SoX 14.2.0。

Audio 吉他和弦识别算法?

什么样的数字信号处理算法适合吉他和弦?由于快速傅立叶变换,我认为只有在吉他上弹奏的单个音符是准确的,而不是同时弹奏的音符(即和弦) 谢谢 那么,你可以尝试另一套频域算法,比如小波。但我不确定这是否能解决您的准确性问题。事实上,我不明白你在FFT上遇到了什么问题。它始终是和弦的近似值,没有完美的方法来检索关于声音的那种信息 所以,这取决于你对频谱的分析,对于单音符,实际上有很多比FFT更好的算法,但是对于和弦,你很可能必须使用FFT 你必须处理的问题是把基本谐波与高次谐波分开,有一点可以帮助,那就

Audio 音频信号处理的最佳开源项目?

需要找到是否有一个音频信号处理的开源项目,就像我们有图像处理的openCV一样 多亏了中的更多内容,我们被介绍到了信号处理,我们不得不使用and进行绘图 对于所使用的课程,这是一个商业项目, 但是总会有开源的和抖动等效的,但是仅仅对于音频信号处理,你应该可以使用PureData 简言之,如果你喜欢数字运算,八度音应该可以。 我们也做了倍频程的图像处理,它是二维的,而不是一维的(声音),但它仍然是信号处理。您也可以对图像应用高通或低通滤波器,如果您愿意,您可以尝试对图像进行回波/延迟 纯数据

Audio MonoTouch:从麦克风捕获音频流

我知道AVAudioRecorder类,但我想知道如何(使用Monotouch)捕获麦克风输入,以便将其传输到远程服务器。AVAudioRecorder类允许您将流保存到本地文件。在发送到本地文件之前,是否有方法传递URL或获取字节数据 您可以使用MonoTouch.AudioToolbox中的低级API来组装您需要的任何类型的音频管道 以下是一个用于解码和播放流媒体音频的示例: 这仅仅是为了让您了解如何处理样本。这个想法非常相似,但是您将使用API的另一面来提取和上传数据 这是Apple的A

Audio 如何在lua中播放声音

如何在lua中播放声音?有什么简单的诀窍吗 我的目标是在玩我的游戏时播放一些ogg(或mp3)文件,这是用lua编程的。它在windows上运行。Lua没有任何本机声音API。如果Lua有一个插件/扩展来完成音频控制/播放,那么你必须单独去挖掘它。或者,如果Lua支持COM,您可以直接与Windows音频设施通话。Lua没有任何内置的声音API。在Windows上,您有以下选项: 为所选的声音系统编写绑定(OpenAL或更高级的东西——如果需要帮助,可以将其作为单独的非Lua特定问题) 使用L

Audio 比较同一声音的两次录音

好的,我正在寻找一种方法来比较两个音频样本 哪些是相同声音的录音 当在一个房间的两个不同点播放时,从一个固定点听到的声音 能否对声学效应进行分析和比较 编程根本不是我的领域,但作为一名声音工程师,我对此非常感兴趣 提前感谢您的想法。 Rob如果你也有原始材料,你可以将录制的声音与原始声音去卷积,得到脉冲响应。从那里你可以计算出各种声学参数,比如空间感和语音清晰度。通常,这些声学参数因位置而异

Audio 简单音频滤波器组

我不熟悉音频过滤器,所以如果我说错了,请原谅 我喜欢写一个代码,它可以将PCM样本中存储的音频分割成两个或三个频带,并对它们进行一些操作(比如修改它们的音频电平)或分析,然后从输出中重建音频样本 就我在互联网上读到的这项任务而言,我可以使用FFT-IFFT并对复杂形式进行操作,或者使用基于时域的滤波器组,例如MP2音频编码格式使用的滤波器组。也许一个过滤器组是一个更好的选择,至少我读到过一些地方,它可以在实时流媒体环境中更方便地使用CPU。然而,我很难理解过滤器库背后的数学知识。我试图找到一些关

Audio spotify track change(Applescript)上的音频劫持专业版分割录制

这类似于: 但是我不想在咆哮通知中显示音轨变化,我想让Audio Hijack Pro分割它当前的录音。Audio Hijack Pro还支持Applescript,命令将为“分割录制”。因此,我不需要任何关于播放哪首歌的信息,但曲目会随着事件的变化而变化,从而准确地触发“分割录制”。我想从一些东西开始,但我对一般的脚本编写知之甚少,对Applescript更是知之甚少。任何帮助都将不胜感激!提前感谢。您需要反复轮询当前播放的曲目,当曲目名称更改时,将命令发送到Audio Hijack Pro

Audio A-Law和mu-Law的WAV文件头

有人能告诉我A-Law和Mu-Law的WAV文件头信息吗?简而言之,是mutlimedia文件的规范,它使用块存储数据。与a类似,每个块包含关于其自身类型和长度的信息,字段SubChunkID和SubChunkSize先于其余数据。音频压缩信息存储在fmt块中 阅读和了解更多信息。您可以搜索。。。谷歌是你的朋友有趣的-没有回答-问题将是什么期待在偏移量20 0x14和0x15 2字节作为音频格式。显然,PCM=1,即线性量化,但我们对a-定律期望什么,对mu-定律期望什么?从我从其中一个链接站点

Audio openFrameworks:声音重复得太快了;It’这是个小故障,怎么减速?

我正试图用音乐创造一种简单的乐器。基本上,是一堆不同的球在屏幕上弹跳。每个球代表一个音符。如果任何两个球足够近,将播放(这些球的)两个音符 我已经设法播放了这些声音。但他们重复得太快了,这听起来更像是个小故障。当球分开时,声音就会正确播放 我想知道是否有任何方法可以减慢重复的速度?这是完全有意义的,因为你每秒多次检查球之间的距离,当距离超过阈值时,你会以相同的速率触发声音(每秒多个TIM) 您可能需要以下内容: in update loop: for each ball if distanc

Audio Web音频API中的FFT数据对应于什么?

我已经使用Analyzer节点的FFT数据,使用Web Audio API中的getByteFrequencyData方法创建了频谱可视化工具,如下所示: 在本例中,我有256个数据箱。这个数字到底对应什么?它是每个频率分量的分贝级。如果是这样,我如何知道每个箱子的频率值对应于什么 我想知道,所以我可以在建立一个图形均衡器的实验,所以想知道在哪些点,以表明滤波器带。理想情况下,我希望表示从20Hz到20kHz的频率,并相应地绘制这些频率之间的间隔 感谢您的帮助。对于256个存储箱,每个存储箱的

Audio 未知的音频格式-在哪里挖掘?

在我的Android手机(飞利浦Xenium W632)上,我有一个通过自己的软件记录通话的选项(没有任何外部程序,此选项在服务菜单中打开)。问题是我尝试过的任何播放器都不知道结果格式。从内容上看,文件似乎没有打包或加密,因此对于熟悉该领域的人来说,识别格式可能不是很困难。我想,这个问题可能太具体了,不可能在这么短的时间内被问到,但是我根本不知道这样的人在哪里交流。因此,如果您能提供此类资源的任何提示,我将不胜感激。对于此问题的更多正确标题/标签的建议也将不胜感激 技术信息:文件名为“Mon_A

Audio 绘制音频频谱图

我正在尝试实现一个应用程序,它使用bass audio()绘制音频频谱。我的理解是,我必须: 从流中获取FFT数据 浮点[]缓冲区=新浮点[256]; Bass.Bass_ChannelGetData(句柄,缓冲区,(int)(Bass_DATA_FFT_复数| Bass_DATA_FFT_NOWINDOW)) 对于每个fft,计算其大小 将窗口函数应用于FFT(汉宁或汉明即可) 然后,画出漂亮的光谱分析图 但问题是: 似乎无法访问BASS_数据\u FFT_复BASS数据。我可以在文档中看到

Audio mp3文件在Google Earth placemarks中不随机播放

我有许多placemark,每个placemark都嵌入了一个或多个音频剪辑(播放器和剪辑都在我的服务器上) 当我点击一个地点标记时,音频播放器就在那里,但剪辑并不总是播放。有时会,有时不会。在具有多个剪辑的placemarks中,一些剪辑播放,而其他剪辑不播放,如果我关闭并重新打开,将播放不同的剪辑,而以前播放的其他剪辑将不播放 据我所知,它是随机的(似乎和剪辑的大小、名称、服务器或placemark上的订单无关) 有什么想法吗????我试着关掉杀毒软件,但没什么不同

Audio AAC流重新采样错误

我确实有一个非常特殊的问题,我希望我能找到答案 我试图通过NAudio库从URL(在线流媒体广播,例如live.noroc.tv:8000/radionoroc.aacp)读取AAC流,并获取IEEE 32位浮动样本 除此之外,我想重新采样流到一个特定的采样率和通道计数(速率5512,单声道) 以下是实现以下目标的代码: int tenSecondsOfDownloadedAudio = 5512 * 10; float[] buffer = new float[tenSecondsOfDown

Audio USB音频混淆-可能的数据速率是多少?

我是USB开发的新手,对于什么样的数据速率才是现实的,我很困惑 我正在尝试开发一个连接在AVR32处理器上的外部声卡,该处理器支持USB全速(12 Mb/s)。我将使用USB audio class 1将音频数据发送到PC。我需要将24位、48kHz、2个通道作为输入发送到计算机,还需要从计算机发送24位、48kHz、1个通道输出。双向流媒体 这给了我一个数据速率:24位*48kHz*3个通道=3,5 Mb/s,通过使用USB全速,这应该是可能的? 我知道Audio类通过同步传输发送数据,但我不

Audio 如何从FFT中检测字符串音调

我得到了傅里叶变换的光谱。看起来是这样的: 警察就在附近经过 颜色代表强度。 X轴是时间。 Y轴是频率-其中0位于顶部 虽然口哨声或警笛声只留下一个痕迹,但许多其他音调似乎包含许多谐波频率 电吉他直接插入麦克风(标准调谐) 真正糟糕的是,正如你所看到的,没有主要的强度-有2-3个频率几乎相等。 我编写了一个峰值检测算法来突出最重要的峰值: function findPeaks(data, look_range, minimal_val) { if(look_range==

Audio SoX重采样和转换

我试图弄清楚如何在SoX中组合两个命令。我的主文件是44.1千赫。我首先想把这个文件重采样到22kHz,然后把它转换成mp3/opus/ogg。我如何用一个命令来实现这一点 SoX通过查看其扩展名来确定文件类型。要调整输出文件的速率,请将-r选项添加到输出文件格式选项中。从手册摘要中: sox [全球选择] [格式选项]填充1[[格式选项]填充2]。。。 [格式选项]输出文件 [效果[效果选项]。。。 括号中的项目是可选的,…表示上一个项目的零个或多个 以下是如何使用一个命令执行两个操作的示例

Audio 使用Google Translate API获取单词发音

我正在尝试将法语单词的发音保存到.wav或.mp3文件中 我想知道Google Translate API上是否有任何地方(因为它有发音功能)允许我实现这个目标。其他的库也可以使用。自从有人提出这个问题以来,从谷歌翻译“刮”MP3变得更加困难,但谷歌(最终)建立了一个新的库。有趣的是,它是以输入字符计费的,每月前100万或400万个输入字符是免费的(取决于您是使用WaveNet还是老式语音) 现在,在命令行上使用gcloud来实现这一点(与将其构建到应用程序中相比),您可以大致执行以下操作(我解

Audio 从连续wav文件中提取独立单词的时间

我有一个长的wav文件,重复同一个音节(/da/)。我在音频文件中录制了两个频道: 顶部-语音信号 当音节产生时发生的底部触发器 我在另一个文件中保存了触发器的计时,但现在我还需要知道音节何时结束。 开始时的触发器非常精确,并且与其他文件相关,所以我希望保持这个计时 当音节结束时,我应该如何提取时间?这可以在普拉特完成,还是我还需要别的什么 提前感谢。我设法使用语音文件系统(SFS-)从连续文件中提取时间。 使用GUI,它可以位于Tools>Speech>Annotate>Find multi

Audio 使用libav将浮点PCM编码为OGG

我目前正在尝试将原始PCM浮点缓冲区转换为OGG编码的文件。我尝试了几个库来进行编码过程,最后选择了libavcodec 我想做的就是获取音频库提供的浮点缓冲区([-1;1]),并将其转换为编码ogg数据的字符缓冲区 我使用以下(概念验证)代码将浮点缓冲区编码为已编码MP2的缓冲区: 静态AVCodec*编解码器; 静态AVCodecContext*c; 静态数据包; 静态uint16_t*样本; 静态AVFrame*帧; 静态整数帧编码; 文件*文件; int main(int argc,ch

Audio 录制音频-响度差异太小

当有什么事情发生时,我试着用麦克风录下声音(无论是有人说话还是只是移动物体——基本上不是随机噪音) 到目前为止,我的方法是录制1-2秒,检查录制是否通过了“任何事情发生”的测试,如果是,我可以录制新的1-2秒录制没有通过测试的时间 现在我的问题是测试。我现在做的基本上是设置一个阈值,所以基本上看起来是这样的: for(uint32_t i = 0; i < SAMPLE_RATE * NUM_SECONDS; i++) { if(buffer[i] > threshold)

Audio sox-如何创建比特率为16kbps的mp3文件

当前使用的命令是 `sox input.wav -G -t mp3 -r 16k test.mp3` 但这是创建一个比特率为24.0 kbps的文件 如何使输出文件的比特率达到16.0 kbps?在中,您会发现它是-C选项。下面我引用整个章节,因为你可能会发现它很有趣 但是,如果我调用sox test.wav-C 16.01 test.mp3我的测试文件(48kHz/16位)将转换为32kbps。如果我调用lame test.wav-b 16-q 0 test.mp3,我会得到16kb

Audio 使用FFMPEG从视频中提取音频,但持续时间不同

我的问题是,我需要用FFMPEG提取视频中包含的音频,并具有相同的持续时间。但对于我测试的一些文件,音频的持续时间有时比视频的持续时间短。我需要在音频和视频文件之间有完全相同的持续时间 我已经尝试的命令如下: ffmpeg-i输入\ u video.mp4输出\ u audio.wav 如何使用命令中的选项修复此问题?我找到了解决方案。以获得完全相同长度的音频提取。我使用选项-async 1,如下所示: ffmpeg -i input_video.mp4 -async 1 output_audi

Audio 单一游戏:WAV不玩

这是Monogame3.4,我通过VS2013使用它。我正在使用与纹理相同的方式使用mgcb编译我的WAV文件。MGCB工作正常,但当使用SoundEffectclass播放声音时,它不会播放任何东西。没有例外,SoundEffect.Play()函数返回true,但我什么也听不见。这是我的密码: 装载: JumpSound = content.Load<SoundEffect>("SpinJump"); 在XNA项目中,同样的代码可以很好地播放声音。这是一个已知的bug还是什么

Audio VHDL音频采样音量控制

关于这个问题我搜索了很多,但我找不到任何有用的。。。 问题是,我在FPGA芯片上产生回声效应。。我已经准备好了一切,比如BRAM的延迟、输入、延迟输出,但我不知道如何改变返回到输入的输出量,将它们混合在一起并再次发送给BRAM。。 因为当我只是简单地将输出连接到输入时,它会使BRAM循环无限大,但我需要将返回到输入的输出量更改为其体积的一半。。 我读到,将样本向右移动可以实现这一点,但它会在样本上发出很大的噪音 Im使用16位样本 所以我想知道如何控制样本量,以及我准备的所有其他东西。所以我找到

Audio 如何在麦克风上播放声音?

我想用处理语言制作一个音板来播放声音,这样计算机就可以像处理麦克风输入的声音一样处理声音。这是我做音板的唯一问题。我如何使声音播放起来就像是由麦克风录制的一样 我花了一个小时寻找并试图寻求帮助,但我没有什么工作要做 Minim提供类AudioInput,用于监控用户的当前录制源(通常在声卡控制面板中设置),例如麦克风或线路输入 从 编辑: 你看到这个了吗 import ddf.minim.*; import ddf.minim.ugens.*; Minim minim; // for re

Audio 如何通过聊天程序(win OS)发送特定应用程序的声音

我有5个要求: 我想通过语音聊天程序(如TeamSpeak、Skype等)发送其他程序输出的声音 我只想发送某些节目的声音。不是我所有的系统都有声音 我必须仍然能够与他们交谈(仍应使用鼠标输入) 我仍然想听到我发送的声音 它必须是一个软件解决方案 我的设想: 我在玩LoL/DoTA/CoD/BF(无论哪个让你开心),我在和一些朋友进行团队对话。发生了一些事情,我想播放一个合适的声音(例如来自)。因此,我想通过聊天发送来自浏览器的声音 我尝试的是: 我安装了CheVolume()。这是为了处理输出

Audio PJSIP通过会议网桥将语音从仅麦克风设备录制到wav文件

我有一个只有麦克风(捕获)功能的设备。我想把那个设备的声音记录到wav文件中 当我执行以下步骤时 wav = pjmedia_wav_writer_port_create snd_port = pjmedia_snd_port_create_rec (NOTE: PJMEDIA_DIR_CAPTURE only) pjmedia_snd_port_connect(snd_port , wav) 声音正在被录制到wav文件中 但当我这么做的时候 wav = pjmedia_wav_writer_

Audio 嵌入在手机上播放声音的YouTube视频自动播放

www.aerlawgroup.com 我使用下面的代码在网站上嵌入了一个带有自动播放和静音功能的YT视频。在手机上,它不会自动播放(这很好)。但是,当我在手机上点击“播放”时,视频播放时没有声音(因此保持静音) 是否可以插入代码以便播放声音 <div id="muteYouTubeVideoPlayer"></div> <script async src="https://www.youtube.com/iframe_api"></script>

Audio 我如何获得SHOUTcast“;“现在玩”;来自流的元数据?

比方说,我要查询“流”的当前广播(在线广播“A.0.0.00广播:一直都是80年代”)。 我可以对该URL发出HTTP GET请求,将标题“icy metadata”设置为“1”,并返回包括以下“icy-*”标题的消息: key=“冰冷的br”;value=“128” key=“冰冷的体裁”;value=“几十年,80年代” key=“icy metaint”;value=“16000” key=“名称”;value=“A.0.0.00收音机:一直都是80” key=“icy-notice1”;

Audio 带librosa的音频缓冲区

在下面的代码中,我创建了一个缓冲区,在每个循环迭代中保存10帧音频文件 import collections import librosa import wave my_buffer = collections.deque(maxlen=10) f = wave.open('Desktop/0963.wav',"rb") num_frames = f.getnframes() for frame in range(num_frames): my_buffer.append(f.readfr

Audio 在SoX中将.aiff转换为.wav

我在一个目录中有多个.aiff格式的文件,我想使用SoX将它们转换为.wav。我已经在网站上试用了该代码,如下所示 theFiles = `/Users/me/RainbowAiff/*.aiff`; for eachFile in $theFiles; do v1=${eachFile%*.aiff}; oldFile="$v1.aiff"; newFile = "$v1.wav"; echo oldFile $oldFile; echo newFile $newFile; sox $o

Audio mp3编解码器也有I/p帧吗?

我正在用Android MediaPlayer播放mp3文件。 但当我使用seekTo(msec)函数寻找随机时间时,每个安卓设备中的每个播放器都显示出细微的差异。时间上的差异约为1秒 我好奇的是Mp3 MPEG1音频编解码器也有i帧/p帧的东西?我知道这是视频编解码器的属性,但我想知道音频编解码器是否也有类似的属性,所以它需要跳转到某个位置,以获得解码音频的I帧。如果是这样的话,这样的属性会造成寻找时间的差异,这是合理的,因为每个玩家开始的时间并不完全相同。您可能会遇到三个不同的问题 第一个是

Audio 谷歌云文字语音界面混乱(如何下载mp3文件?)

首先,我想说的是,我不是一名程序员/开发人员——我是一名多媒体设计师。我使用文本到语音生成占位符音频文件,可用于在录制官方音频旁白之前为动画计时 以前我用的是Amazon Polly,但我想试试谷歌云。然而,我最难真正弄清楚如何生成mp3文件并保存它们 使用Amazon Polly,您只需进入一个网站,在字段中输入文本,然后单击一个按钮,它就会将您的文件保存为mp3文件。有了谷歌云,情况似乎要复杂得多。《快速入门》指南让我启用API、下载JSON文件、设置环境凭据、初始化SDK以及在命令提示符中

Audio 索尼Spresense“;音频管理器;断言失败

我正在做一个Spresense项目,但我在音频复制方面有问题。 SD卡有三个文件,分别称为“1.mp3”、“2.mp3”和“3.mp3”,但当我将其中一个文件称为Serial时,会出现一个错误,主板会停止运行 其他音频示例也适用于我的项目中实际使用的文件(重命名) 所需文件1 注意:模块[1]注意id[2]/code[1](dma_控制器/audio_dma_drv.cpp L886) 注意! up_assert:Assertion在文件:manager/audio_manager.cpp行:5

如何在pi上正确安装portaudio

我正在做一个项目,涉及从一个麦克风在树莓圆周率录音。 现在我在程序运行时遇到这个错误 python3:src/hostapi/alsa/pa_linux_alsa.c:3641: paalstareamcomponent_BeginPolling:断言'ret==self->nfds' 失败。流产 在寻找修复此问题的方法时,我发现文件pa_linux_alsa.c属于port audio。请参考以下链接 第一个链接是关于错误和修改的修复,仍然不知道复制到哪里,最后两个是关于安装portau

Audio 是否可以在不使用ffmpeg重新编码的情况下更改音量?

我有这个问题,因为我对ffmpeg使用了以下命令: ffmpeg -i input.wav -filter:a "volume=0.2" output.wav 以下是此处的文档: 然而,当我创建新文件时,输出的大小是输入的一半,音频曲目的比特率也降低了 因此,我的问题是: 比特率是否应该随着体积的减小和增大而减小 是否可以在不使用ffmpeg重新编码的情况下更改音量 好的,正如Reddit的人友好地向我解释的那样,我应该能够在不重新编码的情况下更改音量,但是,我的输入编解码器是pcm_f321

Audio 带有lamejs编码pcm的concat mp3文件存在间隙

我没有主意了。使用先将麦克风编码的PCM编码为mp3,然后在后端将它们拼接在一起(如果连接中断,并且不想保存大型PCM/wav文件,则这是一种保存过程)。这几乎是库示例中的代码 为了将它们重新组合在一起,我只需读取文件并使用Buffer.concat(arrayofpart)对缓冲区进行压缩。到目前为止,这一切都很好。唯一的问题是,在录制过程中,它在前端被拆分的位置有一点小的中断。如图所示: 我首先想到的可能是每个mp3缓冲区都具有的ID3元数据。因此找到了一个解析器并将其从缓冲区中删除。不幸

Audio 用Java实现音频流

我正在构建一个应用程序,通过麦克风将语音收集为wav文件。这些录音需要流到服务器并保存(作为wav文件,我知道它们很大,但必须是wav)。我还需要将音频(可以是mp3)从服务器流到web应用程序,以便为用户播放。我不知道如何实现这一点,但我想使用JavaEE应用程序,因为我熟悉Java,而且它比Flex更易于维护(我们在使用旧的Flex代码时遇到了问题)。我关注的是: 如何缓冲传输,以便用户能够听到整个文件而不中断?传输整个文件,然后播放也可以,但是知道如何做会很好 如何验证到服务器的传输?我可

Audio ffmpeg流偏移命令(-ITSSOFFSET)不工作

如果有人能就其偏移量与ffmpeg的使用给出一些建议,我将不胜感激。我已经读了很多关于这个主题的帖子,其中一些非常清楚地解释了如何用-itscoffset重新同步音频和视频,但我一直没能让它工作。 我的avi文件使用ffmpeg编码,分两次,第二次使用以下命令: ffmpeg -i whole-vts_01.avs -pass 2 -y -vcodec libxvid -vtag XVID -b:v 1300K -g 240 -trellis 2 -mbd rd -flags +mv4+aic

Audio 嵌入youtube播放列表的音频

我使用以下代码嵌入youtube视频,并仅显示控件,使其仅播放音频: <object height="25" width="610"><param name="movie" value="http://www.youtube.com/v/-YhQ7BetDdM&hl=en_US&color1=0xf4f4f4&color2=0xffffff&hd=0&fs=0"> </param> <par

Audio 声音加法合成-任何谐波振幅

我有用C#写的音乐合成工作方案。现在我面临的问题是,如果实现另一种基于振幅谱采集的仪器。我找到了这个网站,在那里我可以看到钢琴、人声、管乐器、小提琴的所有和声部分(1-10),但我想添加更多不同的乐器,例如鼓、吉他等。我在互联网上浏览了数百页,但没有成功。你知道其他乐器的和声幅度吗 编辑: 没有人知道乐器的谐波(振幅谱1-10) 非常感谢 Hmyzak乐器木材最重要的一个方面是部分构件的强度如何随时间变化。它们也会根据音符的振幅和其他因素而变化。换句话说,分音的振幅之间没有简单的关系。我没有读你

Audio SOND-SOX:如何制作180度相移版本的音频文件/流?

我试图得到一个180度的相移波,如果与之混合或同步播放,它可以有效地抵消声音 请限制对sox(瑞士军刀式声音处理程序)的回答。您可以将-v选项与负值结合使用。使用-1你会得到一个你正在寻找的新信号 例如,您可以合成余弦信号: sox -n cos.wav synth 3 sine 500 然后使用-v选项更改其相位: sox -v -1 cos.wav sin.wav 如果将2个信号组合在一起 sox -m cos.wav sin.wav sum.wav 您将看到您获得了一个空信号很可能是

Audio 如何通过gsm实现语音加密?

我正在尝试创建一个加密的GSM语音通信系统 由于我们不能使用Android,我认为最好使用类似RaspberryPI的解决方案。(例如RaspberryPI+电池+usb调制解调器) 因此,总体规划是: 录音 使用某种编解码器对其进行编码,这种编解码器允许比GSM更好的压缩 加密w/AES 把它调回声音 将调制后的声音发送到GSM 所以,一般的问题是:是否有编码和调制算法,能够通过GSM传输编码/加密的语音 或者有没有更好的方法来做到这一点只使用GSM而不是VoIP流加密加密任何类型的比特流。因

Audio 按音频功能过滤Spotify ID

我正在尝试按项过滤音频功能,获取Spotify ID数组。 例如,我希望接收所有歌曲的Spotify ID数组,其可跳性介于0.735和0.740之间。我认为这在旧的EchoNestAPI中是可能的。在新的Web Api中仍然有这样做的方法吗?我认为直接通过Web Api恐怕不可能做到这一点 两个相关端点是: 您可以使用关键字搜索曲目,例如流派:“Pop”,但这不适用于音频功能名称(例如节奏:120/节奏:“120”)。音频功能端点要求您提供曲目ID 如果您可以通过某种其他方法(例如,您

Audio 如何通过处理创建半透明音频反应覆盖?

我对这个问题进行了广泛的研究,但找不到任何有用的答案。基本上,我想创建一个半透明(或半透明)的音频反应覆盖,它可以转换到一个通用的视频文件。这样做的目的是让视频与音频轨道一起呈现脉动的外观 我想我可以通过处理和minim库来达到这个效果,但我不知道如何绘制草图。输出应为1920x1080,脉动叠加应产生强烈的亮度感(例如,亮度为30-50%,不透明度为25-50%的浅色) 我正在用@george profenza提供的草图更新这个挑战(修改为使用视频而不是cam输入): 导入处理。视频。*; 电

Audio 默认音频设备

我正在尝试在NixOS主机上配置默认音频设备 因此,我的alsa设备是: $ aplay -l **** List of PLAYBACK Hardware Devices **** card 0: NVidia [HDA NVidia], device 3: HDMI 0 [HDMI 0] Subdevices: 1/1 Subdevice #0: subdevice #0 card 0: NVidia [HDA NVidia], device 7: HDMI 1 [HDMI 1]

Audio 我如何制作一个充满点(白色等级基于振幅)和纹理的图形,以适应不断演变的弧线?

我正在做一个音频可视化,基本上应该是一个圆形的光谱图。我有一张显示频率的图表,还有一条弧线,它根据时间的推移而变化。现在,我想根据每个频率的振幅用白点填充弧,就像这里:。显然,我需要制作一个由点填充的图形,这些点根据振幅从白色变为黑色。然后我需要用这个图形对圆弧进行纹理处理。有人知道怎么做吗 import ddf.minim.*; import ddf.minim.analysis.*; import ddf.minim.effects.*; import ddf.minim.signals.*

上一页 1 2 ...  8   9   10   11    12   13   14  ... 下一页 最后一页 共 95 页