无法从Python中的javascript解析json帖子

无法从Python中的javascript解析json帖子,javascript,python,Javascript,Python,这是我从get请求接收的字符串: {'company_code': u'ha', 'from-date': u'', 'to-date': u'', 'ledger_type': u'CLNT', 'cost_center': u'ALL', 'margin': u'wtmg'} 现在,我完全不知道该怎么办。我想让str['company_code']给我“ha”作为输出 但即使我对它执行json.dumps()或load(),我也无法访问它 有什么帮助吗 编辑: 从javascript客户端

这是我从get请求接收的字符串:

{'company_code': u'ha', 'from-date': u'', 'to-date': u'', 'ledger_type': u'CLNT', 'cost_center': u'ALL', 'margin': u'wtmg'}
现在,我完全不知道该怎么办。我想让str['company_code']给我“ha”作为输出

但即使我对它执行json.dumps()或load(),我也无法访问它

有什么帮助吗

编辑: 从javascript客户端发送JSON字符串并获取JSON.dumps后,我得到以下结果:

{"company_code": "ha", "from-date": "", "to-date": "", "ledger_type": "CLNT", "cost_center": "ALL", "margin": "wtmg"}

这是一个字符串。我不确定如何从这里继续。

给定的字符串不是有效的JSON。这似乎是
repr
的结果

>>> print(repr({'company_code': u'ha'}))
{'company_code': u'ha'}
JSON字符串应该用双引号(“”)包装



反正我可以解析它吗?@Hick,你可以在Python中使用:
decoded=ast.literal\u eval(给定的字符串)
。只要它只包含
str
unicode
int
float
,…它就可以工作,或者我可以尝试从javascript客户端发送json。@Hick,是的,这比使用
ast.literal\u eval
@Hick要好,但是,字符串似乎源自Python。(您是否看到字符串文字中的
u
前缀?)。你应该在Python部分转储json。你能准确地回答你的问题吗?我猜你有一个javascript客户端和Python服务器。你以json格式将数据从Python发送到javascript,但你没有使用
json.dumps
,这就是Python发布unicode special
u的原因“
格式化。对吗?
>>> print(json.dumps({'company_code': u'ha'}))
{"company_code": "ha"}
>>> import json
>>> json.loads('"a"')
u'a'
>>> json.loads("'a'")
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "C:\Python27\lib\json\__init__.py", line 338, in loads
    return _default_decoder.decode(s)
  File "C:\Python27\lib\json\decoder.py", line 365, in decode
    obj, end = self.raw_decode(s, idx=_w(s, 0).end())
  File "C:\Python27\lib\json\decoder.py", line 383, in raw_decode
    raise ValueError("No JSON object could be decoded")
ValueError: No JSON object could be decoded
>>> encoded = '{"company_code": "ha", "from-date": "", "to-date": "", "ledger_type": "CLNT", "cost_center": "ALL", "margin": "wtmg"}'
>>> decoded = json.loads(encoded)
>>> decoded['company_code']
u'ha'