我的“双启动”Ubuntu 11.04、Ubuntu 12.04和Windows XP SP3都更新到了最新版本。
PC是相当旧的Intel Celeron D CPU,3.06GHz,2GB内存
在Ubuntu11.04中,我使用ATLAS编译了Numpy(ATLAS从源代码编译)
在Ubuntu12.04中,我使用了最新可用的MKL、icc、ifort的Numpy版本
在Windows XP中,我使用了带有MKL的Numpy(来自Christoph Gohlke提供的Python软件包)
详
我目前正在努力使用python解决一个线性方程组。我已经尝试过使用numpy.linalg.solve,但这似乎只适用于方形阵列,而我的不适用。有没有其他我不知道的功能可以用来解决我的系统,或者我应该尝试在这里实现一些不同的方法?提前感谢。如果您想使用numpy,那么使用最小二乘法怎么样
但它可能不会给出欠定系统的所有解。你的系统的方程比未知的多,还是相反?也就是说,矩阵的行数比列数多,反之亦然?是的,它有3个未知数,3列10行。在这种情况下,标准的方法是@peci1的答案中建议的最小二乘法。
我正在使用matplotlib.pyplot和numpy后端用Python编写一个图像处理模块。
图像大部分采用tiff格式,因此下面的代码使用tiff文件将3D图像文件转换为numpy中的4D阵列。下面的代码旨在使用z和x作为热键,通过3D图像的z平面移动,一次移动一个图像。我的问题很有趣,但我想不出来:每次按x键和显示z+1图像之间的时间是每次事件的两倍。
我计时,结果如下:
第一次z-press:0.124秒
第二个z-prss:0.250秒
第三次z-press:0.4875秒
这是一个
标签: Numpy
logical-operators
我试图使用两个或多个numpy数组的逻辑和。我知道numpy有函数logical_and(),但我发现简单的操作符&返回相同的结果,并且可能更易于使用
例如,考虑三个编号数组A、B和C。是
np.logical和(a,np.logical和(b,c))
相当于
a&b&c
如果它们(或多或少)是等价的,那么使用logical_和()有什么好处?@user1121588在一篇评论中回答了大部分问题,但要完全回答
“按位and”(&)的行为与布尔数组上的逻辑_和非常相似,但它不能像使用逻辑_和那样传
我试图让x轴有刻度线的范围,而不仅仅是单个数字。我从用户的列表中获取一个输入,并希望将该列表分成相等的部分。(a_list是用户输入列表)
从现在起,它就崩溃了
import pylab
import numpy
def bar_graph(a_list):
'''bar graph of number-frequency, xaxis labeled with ranges'''
y_values = a_list.split(',')
# get ticks as
我试图理解使用熊猫面板时的这种奇怪行为。如果我沿着面板的长轴或短轴取平均值,这些轴似乎被交换了
>>> panel = pd.Panel(np.random.rand(10,20,30))
>>> print(panel.mean(axis=0))
(20, 30)
>>> print(panel.mean(axis=1))
(30, 10)
>>> print(panel.mean(axis=2))
(20, 10)
我
我有以下数据框
df = pd.DataFrame({'A':[74.75, 91.71, 145.66], 'B':[4, 3, 3], 'C':[25.34, 33.52, 54.70]})
A B C
0 74.75 4 25.34
1 91.71 3 33.52
2 145.66 3 54.70
我想创建另一列df['D'],它将是前3列中的列表或序列,适合在另一列中使用np.irr函数,如下所示
D
0 [ -74
我正在尝试使用numpy.savetxt将numpy矩阵(Nx3,float64)保存到txt文件中:
np.savetxt(f, mat, fmt='%.5f', delimiter=' ')
这一行在python 2.7中起作用,但在python 3.5中,我得到以下错误:
TypeError:数组数据类型('float64')与格式不匹配
说明符('.5f%.5f%.5f')
当我进入savetxt代码时,在catch块(numpy.lib.npyio,第1158行)中打印错误(trac
因此,我正在使用一个处理多项式根的函数,我想找到这类函数的最小点(例如通过fmin):
因此,理想情况下,我应该能够通过上述代码的最后一行输入此函数,但它会返回一个错误:
File "<ipython-input-163-c7353335fcca>", line 5, in sumroots
z = np.roots([c0, c1, c2])
File "C:\Users\user\Anaconda3\lib\site-packages\numpy\lib\pol
我目前正在浏览谷歌的:
这是skip gram模型的TensorFlow实现
在第272行,作者决定将相似性矩阵相乘(-sim[j,:])。我有点困惑,为什么我们需要在skip-gram模型中负相乘相似矩阵。有什么想法吗
for j in range(len(valid_words)):
valid_word = word_dictionary_rev[valid_examples[j]]
top_k = 5 # number of nearest neighbo
我有一个矩阵m=np.matrix([[1,2,3],[4,5,6]])
我提取一个向量v=m[0]+m[1],这样现在v=[[5,7,9]]。向量的形状是(1,3),这意味着它被视为矩阵,而不是向量。我怎样才能使v成为一个实际的向量,即某种形状的东西(3,)
我试图使用np.asarray(v)和np.array(v),但它们没有达到我的目的。使用np.squence(np.asarray(v))。所以,首先将其转换为数组(矩阵以外的数组可以有任意n维),然后去掉额外的维
…或者首先避免使用n
标签: Numpy
linear-regressiongradient-descent
嘿,我正在尝试用numpy实现线性回归的梯度下降
我的损失是:
def compute_square_loss(X, y, theta):
size=len(y)
y_estimate=X.dot(theta)
y_estimate=np.array(y_estimate)
y=np.array(y)
error=y_estimate.flatten()-y.flatten()
error=(1/size)*np.sum(error**2)
return error
这是误
当您将管道发送到GridSearchCV时,最佳估算器\uu还包含管道对象(无论您是仅调整管道的单个部分还是所有部分)
所以当你这样做的时候:
knn_pipe_tuned = Pipeline([('impute', imp), ('engineer',topQ), ('scale', scaler),
('select', selector), ('kNN', knn_gs.best_estimator_)])
你基本上是这样做的:
knn_pipe_tun
我可以用一个形状相同的布尔数组/张量或者一个包含我要查找的元素的整数索引的数组/张量来索引我的numpy数组/pytorch张量。哪个更快?以下测试表明,使用numpy和pytorch中的索引数组,速度通常会快3到20倍:
In [1]: a = torch.arange(int(1e5))
idxs = torch.randint(len(a), (int(1e4),))
ind = torch.zeros_like(a, dtype=torch.uint8)
ind[idxs] = 1
ac
我通常在我的项目中使用venv。创建人:
python-m-venv-venv
我的大多数项目都包括numpy,所以我自然也会通过pip安装它
如果我现在启动VS代码,它会分析所有内容,它的解释器是venv,intellisense工作正常。
现在,如果重新启动我的机器,或者只是在以后重新打开项目,这就是intellisense的结果:
有人能帮我解决这个问题吗?谢谢
标签: Numpy
multidimensional-arrayvectorizationarray-broadcastingnumpy-slicing
我有一个数组,其中的值应该平均,直到在另一个数组中作为值给出的那一天为止。第一个数组以365天作为第一个轴,第二个数组对应于特定的儒略日期,范围从0到365,第一个数组的值应从中求平均值
array1.shape = (365, 375, 700)
array2.shape = (375, 700)
生成的数组自然将与用于平均第一个数组的第二个数组具有相同的形状。有没有一个简单的方法可以做到这一点?可能有一些for循环或矢量化/广播
提前谢谢 您可以使用来计算沿轴=0的累积和,然后取一些指数,
我有两个大的ish Dask数组,一个(N,M,2)我感兴趣的值,还有一个(N,M)我真正感兴趣的第一个数组中的值的布尔索引。我必须将后者存储在磁盘上,但我需要节省磁盘空间。因为只有大约一半的数据点是有趣的,所以我考虑过滤掉那些不有趣的数据点我需要保留值来自哪一行的信息。列不太重要。然而,这破坏了良好的均匀阵列结构,因此这是一个锯齿阵列问题
稍后我将按行聚合数据,因此我已经找到了这种可能是次优的处理方案。它的速度很慢,经常触发Dask的compute,这很可能是一种反模式。不过,我不知道如何避开
下面的代码片段搜索数组中的每一行/每一列,查看所有值是升序还是降序。理想情况下,此代码将忽略零。例如,带(5,0,3,1)的行的降序结果为真。下面的代码仍然关注零。如果蒙面技术是一个死胡同,也许我可以创建一个没有零的副本?我对Numpy很陌生,所以我希望有具体的指导。谢谢
np.ma.masked_equal(grid, 0)
for row in grid:
if np.all(np.diff(row) <= 0) or np.all(np.diff(row) >= 0):
我使用OpenCV对图像应用随机透视变换,如下所示:
import cv2
# M: some random transformation operations
wimg = cv2.warpAffine(img, M, dsize=(width, height), borderValue=(114,114,114))
我有每个图像的实例分割多边形注释,我需要根据新扭曲的图像微调坐标
在不将多边形点转换为二进制图像、扭曲它们并转换回多边形点的情况下,如何快速完成此操作?您可以使用:
正如O
是否有任何ufunc能够跨numpy数组的对角线进行映射
如果我有
A = array([[1, 7, 5, 0, 5],
[9, 1, 4, 6, 0],
[9, 6, 1, 0, 0],
[2, 5, 0, 0, 0],
[1, 0, 0, 0, 0]])
聚合函数为max
目标是
B = np.diagnols_ufunc(A, np.max)
= array([ 1, -> max([1
我在尝试导入numpy时出现了一个奇怪的错误:
Traceback (most recent call last):
File "/home/timo/malltul/mafet/src/mafet/core/pattern.py", line 7, in <module>
import numpy as np
File "/usr/lib/python2.6/dist-packages/numpy/__init__.py", line 147, in <mod
标签: Numpy
scipyinterpolationscientific-computing
我有一个从cloudpoint生成的网格,可以描述为z=f(x,y),所以我使用scipy.interpolate.bisplrep和bisplev,效果很好
bisplev可与参数dx=n和/或dy=n一起使用,因此结果在评估点处是顺序n的导数。我计划用它来计算平均曲率和高斯曲率(在Matlab中称为surfature),这应该包括得到survace的二阶偏导数
每次使用一个偏导数(例如dx)的结果非常好,可以清楚地将梯度表示为“着色”效果,如这张来自人类背部的图像所示(代码优先):
到目前
我使用numpy.genfromtxt生成数据,如下所示:
ConvertToDate = lambda s:datetime.strptime(s,"%d/%m/%Y")
data= numpy.genfromtxt(open("PSECSkew.csv", "rb"),
delimiter=',',
dtype=[('CalibrationDate', datetime),('Expiry',
我需要帮助)我有NumPy阵列:
False False False False
False True True False
True True True True
False True True False
False False False False
我如何获得该值(取第一行和最后一行,其中包含True,并将所有元素设置为False)
工作原理:
In [19]: arr
Out[19]:
array([[False, False, False, False],
尽管阅读了大量的文档,但我无法让sphinx autodoc很好地使用numpy DocString
在myconf.py中,我有:
extensions = ['sphinx.ext.autodoc', 'numpydoc']
在我的文档文件中,我有:
.. automodule:: python_file
.. autoclass:: PythonClass
:members:
其中python_file.py具有:
class PythonClass(object):
我正在尝试在浏览器中的ipython(2.2.0,运行python 3.3.5)笔记本中导入熊猫,但失败了
[...]
/usr/local/lib/python3.3/site-packages/numpy/add_newdocs.py in <module>()
11 from __future__ import division, absolute_import, print_function
12
---> 13 from numpy.lib i
我有一个大的(超过我RAM的一半)n×n对称矩阵S。我想将它写入磁盘,只使用~n^2/2的空间,以后可以读取它。写作部分是:
S[np.tril_indices(n)].tofile(fid)
以及以下内容:
S = np.zeros((n,n))
S[np.tril_indices(n)]=np.fromfile(fid)
S = S + np.tril(S, -1).T
问题是我创建的所有临时数组都不适合内存在本例中,普通Python循环似乎是最快、最简单的解决方案。当矢量化方法确实适合
我在Python 2.7中有以下代码,其目标是使用numpy、pylab和sklearn创建SVM结果的绘图:
import numpy, pylab
from sklearn.svm import SVC
DataTable = numpy.genfromtxt('path/data.csv',delimiter=',',dtype=None)[1:]
DataPoints,TruthValues = (DataTable[:,[1,2] ]).astype(numpy,float), (
我想利用python极其简单的文本解析和函数编程功能,并利用numpy和scipy等科学计算库的丰富功能,因此我想使用pyspark完成一项任务
我希望在开始时执行的任务是从一个bucket中读取,其中有文本文件作为流的一部分写入。有人能粘贴一段代码片段,说明如何使用pyspark从s3路径读取流数据吗?直到最近,我还以为只有使用scala和java才能做到这一点,但今天我才发现,从spark 1.2开始,pyspark中也支持流媒体,但我不确定是否支持S3流媒体
我在scala中使用的方法是将
我想标题说明了一切,但具体来说,我有一些名为“系数”的数字列表。假设具有所述系数的多项式正好有k个唯一根,下面的代码是否会将唯一根的数量设为大于k的数字
import numpy as np
number_of_unique_roots = len(set(np.roots(coeffs)))
对
更精确地说,具有k次方根的多项式f(x)+eps·g(x)的扰动f(x)通常具有唯一的根,并且k次方根分离成一个几乎对称的星,k个顶点围绕原始k次方根,其距离与eps^(1/k)成比例
多项式的数值
有很多类似的帖子,但没有一篇像我能找到的这个构建那么简单
我是Python新手,正在尝试重新创建MATLAB功能,所以我显然想要pyplot
我从头开始安装,如下所示:
32位miniconda.exe
pycharm 5.0(也使用了4.5.4)
pycharm解释器=3.5.0,位于C:\Users\xxx.xxxxxxx\AppData\Local\Continuum\Miniconda3.exe
在pycharm终端中运行:
康达安装numpy。。。y…完成了
康达安装scipy。。。
鉴于上述情况:
A = np.array([np.array([1], dtype='f'),
np.array([2, 3], dtype='f'),
np.array([4, 5], dtype='f'),
np.array([6], dtype='f'),
np.array([7, 8, 9], dtype='f')])
显示为:
A
array([array([ 1.]
标签: Numpy
multidimensional-array
我在不同的文件中有许多3D阵列。我想将它们转换为二维数组,然后将它们合并为一个数组。
我设法得到了2D数组,但没有得到格式。
前任:
原始三维阵列(4x2x2x2):
我希望它成为2D(2x8):
这是我的代码:
import numpy as np
x=np.arange(16).reshape((4,2,2)) #Depth, Row, Column
y=x.reshape((x.shape[1], -1), order='F')
如果有更好的方法,请随时改进我的代
我在Bluemix Spark服务中创建了“沉淀分析”示例Jupyter笔记本
笔记本链接:
所以在[34]和[35](你必须滚动很多)中,他们使用numpy polyfit来计算给定温度数据的趋势。但是,我不知道如何使用它
有人能解释一下吗?Developerworks已经回答了这个问题:-
我将尝试解释以下每一点:-
index=chile[chile>0.0]。index=>此语句给出了智利python系列中大于0.0的所有年份的指数
fit = np.polyfit(index.as
标签: Numpy
scipyintegrationgaussiannormal-distribution
我已经为此挣扎了几天。我试图估计一个分段高斯函数的密度。谁能告诉我为什么我现在会出错
TypeError: output[0] = y0
ValueError:使用序列设置数组元素
它发生在这一行:
Zero_RG = integrate.romberg(gaussian(q,x,mu,sigma), Q1, Q2).`
以下是脚本:
import numpy as np
import sympy as sp
from sympy import *
from scipy import
标签: Numpy
multidimensional-arraylinear-algebranumpy-ndarraydot-product
在两个向量可能缺少值的情况下,如何进行numpy点积?这似乎需要很多额外的步骤,有没有更简单的方法
v1 = np.array([1,4,2,np.nan,3])
v2 = np.array([np.nan,np.nan,2,4,1])
np.where(np.isnan(v1),0,v1).dot(np.where(np.isnan(v2),0,v2))
在元素相乘之后,我们可以使用忽略NaNs的值求和-
np.nansum(v1*v2)
样本运行-
In [109]: v1
Out[10
我想得到x的z和g的值范围z和g是数组。因此,如果两者都包含10个元素,我应该得到100个结果吗?在您使用的代码中z和g是符号,而不是数组。只需将它们定义为数组:
from sympy.abc import *
import sympy as s
import numpy as n
z = n.array([1,2,3,4,5,6,7,8,9,10])
g = n.array([11,12,13,14,15,16,17,18,19,20])
x = n.array([z+g,z-g,z*g])
我正在做一个图像分割任务,其中我需要忽略某个函数的nodata像素值,例如绘制图像的直方图。但是,我不想将其从阵列中删除,因为这会更改图像的形状。我试过下面列出的两种方法,但都不起作用。我试图忽略的nodata像素值是190。我的数据的形状为(12350,1)
我尝试的第二种方法是:
img=np.ma.masked_values(img, 190).
这种遮罩有什么问题?当我使用上述任一方法并绘制图像的直方图时,无数据值仍然有一个非常高的值,这意味着它没有被遮罩。大多数nonMA函数使用数据
我将有许多存储在文件中,这些文件是使用函数保存的
我将信息分成许多数组,因为如果不是这样,我使用的函数会因为内存问题而崩溃。数据不是稀疏的
我需要将所有这些信息合并到一个唯一的数组中(能够用一些例程处理),并将其存储到磁盘中(用不同的参数多次处理)
阵列无法装入RAM+交换内存
如何将它们合并到一个唯一的阵列中并保存到磁盘?
我怀疑我应该使用,但我不知道具体如何使用。另外,如果我一开始不保留连续的磁盘空间,可能会出现一些性能问题
我读过这篇文章,但我仍然不知道怎么做
编辑
澄清:我制作了许多函
当我运行此代码时,我得到如下结果:
import tensorflow as tf
import numpy as np
from time import time
def print_timer(func):
start_time = time()
func()
end_time = time()
print(end_time - start_time)
N = 4
A = np.random.randn(N, 1000, 16000)
B = np.random.rand
我有两个阵列:
L, M, N = 6, 31, 500
A = np.random.random((L, M, N))
B = np.random.random((L, L))
我试图得到一个数组C,这样:
C = B * A
C has dimension [L, M, N]
我试图回答张贴在这个,但它没有给我想要的输出
上述代码的for循环版本为:
L, M, N = 6, 31, 500
A = np.random.random((L, M, N))
B = np.rando
我试图学习如何创建一个简单的卷积神经网络,但我遇到了一个错误:
AttributeError:'NoneType'对象没有属性'original\u name\u scope'
我不知道为什么会这样。早些时候,我制作了一个多层感知器作为我的模型,有四层(没有代码的数据预处理部分中的np.reformate部分),而不是这个CNN模型,它工作得很好。我希望能得到一些帮助
这是我的密码:
import tensorflow as tf
import numpy as np
import matplo
假设我有一个numpy数组
arr = np.array([1, 4, 4, 5]).reshape((4, 1, 1))
现在,我想将arr重塑为arr1,以便
>>> print(arr1)
[[[1]
[1]]
[[4]
[4]]
[[4]
[4]]
[[5]
[5]]]
>>> arr1.shape
(4, 2, 1)
请帮帮我,我真的被困在这里了
In [484]: arr = np.array([1, 4, 4, 5])
标签: Numpy
normalizationcross-correlation
我试图理解模式匹配的互相关,所以我开发了一个简单的脚本来帮助我理解正在发生的事情。
我确实理解互相关的过程和匹配,但是归一化互相关的情况有点模糊,为什么它在我正在研究的问题上似乎效果更好,但是我确实理解它的数学。
问题陈述:
对于具有随机元素的长度为n的数组I,我从I的随机位置k提取一个m元素块。我想使用互相关法找到位置k。这是对图像进行模式匹配的1D等价物,但在1D中。同样,这只是一个练习。以下是我用于实现上述功能的完整代码:
pattern_len = 4
img_len = 11
img
例如,您有一个数组
a = np.array([[[ 0, 1, 2],
[ 3, 4, 5]],
[[ 6, 7, 8],
[ 9, 10, 11]]])
我们希望在最后一个维度迭代切片,即[0,1,2],[3,4,5],[6,7,8],[9,10,11]。没有for循环,有什么方法可以实现这一点吗?谢谢
尝试了这个方法,但没有效果,因为numpy没有按照我们想要的方式解释元组-a[(0,0
我一直在使用numpy的polyfit函数对一些数据进行线性拟合。我有一些斜坡。然而,斜坡的概念让我感到非常困惑
我得到的斜率是0.0142和391!完全不同
391的坡度实际上意味着什么?看看这个
import numpy as np
import matplotlib.pyplot as plt
xr=np.arange(100)
yr=0.0142*xr
yr2=391*xr
plt.plot(xr,yr,yr2)
print("The angle is:",np.
我有一个int64的numpy数组,表示UTC纳秒时间戳。我想把这个数组用于bokeh时间序列图的x轴。我希望时间戳显示在美国/芝加哥时区
此时区要求意味着整数值1595570732997308000应在绘图中显示为01:32.997308,而不是05:32.997308
我该怎么做
我试图寻找一种方法将时区传递给bokehDatetimeTickFormatter,但什么也找不到。我更喜欢避免python列表理解的解决方案
标签: Numpy
scipynumericnumba
当使用nb.jit修饰find_root时,以下代码失败。这是一个很有趣的例子,但其思想是能够为一个值数组找到标量函数的根(或者使用root)并将其存储在numpy数组中
错误消息:TypingError:无法确定类型的
将numba作为nb导入
将numpy作为np导入
从scipy.optimize导入根目录\u标量
a=3.0
b=1.0
c=-10.5
@注意:jit(nopython=True)
def f(x):
返回a*x**2+b*x+c
@注意:jit(nopython=Tru
我正在做一个项目,我必须用鸟瞰的非重叠视图从两个摄像机中检测物体(铁路上的小车)(见下图)
如您所见,车辆被检测到,并返回其质心坐标
然而,我试图将这两个视图转换为一个图像,该图像仅表示汽车行驶的铁路
因此,为了模拟,我创建了只包含铁路的目的地图像(上图中显示的黑色轨迹),如下所示:
在做了一些研究之后,我使用了openCV中的一种方法:cv2.findHomography()whcih查找两个平面之间的单应矩阵
来自两台摄像机的两幅图像的分辨率分别为1280x720。对于目标图像,其分辨率
有人知道如何将结果“灰度图像”的类型更改为np.uint8吗?应用“np.dot”后,它将更改为float 64类型:
LenaRGB = np.array(Image.open('Lena.png'), dtype=np.uint8)
rgb_weights = [0.2989, 0.5870, 0.1140]
grayscale_image = np.dot(LenaRGB[...,:3], rgb_weights)
我认为这应该适合你:
grayscale_image.astype(np
上一页 1 2 3 4 5 6 ...
下一页 最后一页 共 75 页