C语言实现ON到数据库实体的解析 (c json解析到数据库实体)

在现代软件开发中,ON成为一种非常常见的数据格式,它被广泛应用于Web应用之中。而数据库实体则是Web应用中常用的数据持久化方式,因此将ON转换为数据库实体是一项非常有用的技术。本文将介绍如何使用。

1. ON简介

ON(JavaScript Object Notation)是一种轻量级的数据交换格式,它基于JavaScript语言的一个子集。ON数据格式支持基本数据类型、数组和对象,在Web应用中扮演着重要的角色。下面是一个ON的示例:

“`

{

“name”: “Jack”,

“age”: 20,

“hobbies”: [“reading”, “swimming”, “travel”],

“address”: {

“province”: “Jiangsu”,

“city”: “Suzhou”,

“street”: “SIP”

}

}

“`

2. 数据库实体介绍

数据库实体(Database Entity)是数据库中的一个概念,它代表一个实物或一个概念。在Web应用中,通常将数据库实体视为应用程序中的模型。下面是一个用户实体(User)的示例:

“`

CREATE TABLE `user` (

`id` int(11) NOT NULL AUTO_INCREMENT,

`name` varchar(32) NOT NULL,

`age` int(11) NOT NULL,

`hobbies` text NOT NULL,

`province` varchar(32) NOT NULL,

`city` varchar(32) NOT NULL,

`street` varchar(32) NOT NULL,

PRIMARY KEY (`id`)

) ENGINE=InnoDB DEFAULT CHARSET=utf8;

“`

3. C语言解析ON

C语言作为一种高效的编程语言,被广泛应用于系统和嵌入式开发。下面将介绍如何使用C语言解析ON并将其映射到数据库实体中。

我们需要使用第三方库cON来处理ON数据。cON是一种轻量级的ON解析库,它提供了一组简单的API来解析ON数据。我们可以在GitHub上下载cON,并将其包含在我们的代码中。

接下来,我们需要定义一个数据结构来表示用户实体。这里我们使用结构体来表示,结构体的成员与用户实体中的字段对应。代码如下:

“`c

typedef struct {

int id;

char *name;

int age;

char *hobbies[MAX_HOBBY_COUNT];

char *province;

char *city;

char *street;

} User;

“`

在实现ON解析之前,我们需要先实现一些辅助函数。这些函数将用于分配和释放内存、解析和设置用户实体中的字段。这里我们只列出部分函数的实现。

“`c

User *new_user(void) {

User *user = (User *) malloc(sizeof(User));

user->id = 0;

user->name = NULL;

user->age = 0;

user->province = NULL;

user->city = NULL;

user->street = NULL;

memset(user->hobbies, 0, sizeof(user->hobbies));

return user;

}

void delete_user(User *user) {

if (user != NULL) {

if (user->name != NULL) free(user->name);

for (int i = 0; i

if (user->hobbies[i] != NULL) free(user->hobbies[i]);

}

if (user->province != NULL) free(user->province);

if (user->city != NULL) free(user->city);

if (user->street != NULL) free(user->street);

free(user);

}

}

void set_name(User *user, const char *name) {

int len = strlen(name);

user->name = (char *) malloc(len + 1);

strcpy(user->name, name);

}

void set_age(User *user, int age) {

user->age = age;

}

void add_hobby(User *user, const char *hobby) {

for (int i = 0; i

if (user->hobbies[i] == NULL) {

int len = strlen(hobby);

user->hobbies[i] = (char *) malloc(len + 1);

strcpy(user->hobbies[i], hobby);

break;

}

}

}

void set_province(User *user, const char *province) {

int len = strlen(province);

user->province = (char *) malloc(len + 1);

strcpy(user->province, province);

}

void set_city(User *user, const char *city) {

int len = strlen(city);

user->city = (char *) malloc(len + 1);

strcpy(user->city, city);

}

void set_street(User *user, const char *street) {

int len = strlen(street);

user->street = (char *) malloc(len + 1);

strcpy(user->street, street);

}

“`

接下来,我们需要实现一个函数,该函数将ON数据解析为用户实体。我们可以递归地遍历ON数据,并在适当时候调用辅助函数来设置用户实体中的字段。

“`c

User *parse_user(cON *json) {

User *user = new_user();

if (json == NULL) return user;

cON *item;

item = cON_GetObjectItem(json, “id”);

if (item != NULL) {

user->id = item->valueint;

}

item = cON_GetObjectItem(json, “name”);

if (item != NULL) {

set_name(user, item->valuestring);

}

item = cON_GetObjectItem(json, “age”);

if (item != NULL) {

set_age(user, item->valueint);

}

item = cON_GetObjectItem(json, “hobbies”);

if (item != NULL && item->type == cON_Array) {

int size = cON_GetArraySize(item);

for (int i = 0; i

cON *hobby = cON_GetArrayItem(item, i);

if (hobby != NULL && hobby->type == cON_String) {

add_hobby(user, hobby->valuestring);

}

}

}

item = cON_GetObjectItem(json, “address”);

if (item != NULL && item->type == cON_Object) {

cON *province = cON_GetObjectItem(item, “province”);

cON *city = cON_GetObjectItem(item, “city”);

cON *street = cON_GetObjectItem(item, “street”);

if (province != NULL && province->type == cON_String) {

set_province(user, province->valuestring);

}

if (city != NULL && city->type == cON_String) {

set_city(user, city->valuestring);

}

if (street != NULL && street->type == cON_String) {

set_street(user, street->valuestring);

}

}

return user;

}

“`

我们需要实现一个函数,该函数将解析出的用户实体保存到数据库中。这里我们使用MySQL数据库,使用MySQL C API来访问数据库。

“`c

void save_user(User *user) {

MYSQL mysql;

mysql_init(&mysql);

if (mysql_real_connect(&mysql, “localhost”, “root”, “”, “test”, 0, NULL, 0)) {

char sql[1024];

snprintf(sql, sizeof(sql), “INSERT INTO `user`(`name`, `age`, `hobbies`, `province`, `city`, `street`) VALUES(‘%s’, %d, ‘%s’, ‘%s’, ‘%s’, ‘%s’)”,

user->name, user->age, join_strings(user->hobbies, MAX_HOBBY_COUNT), user->province, user->city, user->street);

mysql_query(&mysql, sql);

mysql_close(&mysql);

}

}

“`

我们可以将以上代码组合成一个完整的示例,以下是完整的代码。

相关问题拓展阅读:

解决方法:STM32使用cON解析数据失败

在 STM32 移植 cON 库后羡卜,使用 cON_Parse() ,解析失败。

使用 cON_GetErrorPtr() 分析出以下错误:

而当去掉 serial_no 字段后,则能够解析成功。

当解析的的数据比较长时,会解析失败,但裤中是短的数据则没有问题,后面排查是因为 cON 解析需要用到的内存比较大,溢出导致解析失败。

查看 STM32 启动文件。如 startup_stm32f407xx.s ,发现:

增大空间后,问题解决

• 由 Leung 写于 2023 年 6 月 30 日

• 参考: STM32工程使用cjson库解析数据失败的原兄纯穗因

如何把获取的json数据插入数据库

特点:

它们可以处理超大量的数据。

它们运行在便宜的PC服务器集群上。

PC集群扩充起来非常方便并且成本很低,避免了“sharding”操作的复杂性和成本。

它们击碎了性能瓶颈。

NoSQL的支持者称,通过NoSQL架构可以省去将Web或Java应用和数据转换成SQL友好格式的时间,执行速度变得更快。

“SQL并非适用于所有的程序代码,” 对于那些繁重的重复操作的数据,SQL值得花钱。但是当数据库结构非常简单时,SQL可能没有太大用处。

没有过多的操作。

虽然NoSQL的支持者也承认关系数据库提供了无可比拟的功能,而且在数据完整性上也发挥绝对稳定,他们同时也表示,企业的具体需求可能没有那么多。

Bootstrap支持

因为NoSQL项目都是开源的,因此它们缺乏供应晌羡商提供的正式支持。这一点它们与大多数开源项目一样,不得不从社区中寻求支持。

优点:

易扩展

NoSQL数据库种类繁多,但是一个共同的特点都是去掉关系数据库的关系型特性。数据之间无关系,这样就非常容易扩展。也无形之间,在架构的层面上带来了可扩展的能力。

大数据量,高性能

NoSQL数据库都具有非常高的读写性能,尤其在大数据量下,同样表现优秀。这得益于它的无关系性,数据库的结构简单。一般MySQL使用 Query Cache,每次表的更新Cache就失效,是一种大粒度的Cache,在针对web2.0的交互频繁的应用,Cache性能不高。而NoSQL的 Cache是记录级的,是一种细粒度的Cache,所以NoSQL在这个层面上来说就要性能高很多察袜了。

灵活的数据模型

NoSQL无需事先为要存储的数据建立字段,随时可以存储自定义的数据格式。而在关系数据库里,增删字段是一件非常麻烦的事情。如果是非常大数据量的表,增加字段简直就是一个噩梦。这点在大数据量的web2.0时代尤其明显。

高可用

NoSQL在不太影响性能的情况,就可以方便的实现高可用的架构。比如Cassandra,HBase模型,通过复制模型也能实现高可用。

主要应用:

Apache HBase

这个大数据管理平台建立在谷歌强大的BigTable管理引擎基础上。作为具有开源、Java编码、分布式多个优势的数据库,Hbase最初被设计应用于Hadoop平台,而这一强大的数据管理工具,也被Facebook采用,用于管理消息平台的庞大数据。

Apache Storm

用于处理高速、大型数据流的分布式实时计算系统。Storm为Apache Hadoop添加了可靠的实时数据处理功能,同时还增加了低延迟的仪表板、安全警报,改进了原有的操作方式,帮助企业更有效率地捕获商业机会、发展新业务。

Apache Spark

该技术采用内存计算,从多迭代批量处理出发,允许将数据载入内存做反复查询,此外还融合数据仓库、流处理和图计算等多种计算范式,Spark用Scala语言实现,构建在HDFS上,能与Hadoop很好的结合,而且运行速度比MapRece快100倍。

Apache Hadoop

该技术迅速成为了大数据管理标准之一。当它被用来管理大型数据集时,对于复杂的分布式应用,宴没拍Hadoop体现出了非常好的性能,平台的灵活性使它可以运行在商用硬件系统,它还可以轻松地集成结构化、半结构化和甚至非结构化数据集。

Apache Drill

你有多大的数据集?其实无论你有多大的数据集,Drill都能轻松应对。通过支持HBase、Cassandra和MongoDB,Drill建立了交互式分析平台,允许大规模数据吞吐,而且能很快得出结果。

Apache Sqoop

也许你的数据现在还被锁定于旧系统中,Sqoop可以帮你解决这个问题。这一平台采用并发连接,可以将数据从关系数据库系统方便地转移到Hadoop中,可以自定义数据类型以及元数据传播的映射。事实上,你还可以将数据(如新的数据)导入到HDFS、Hive和Hbase中。

Apache Giraph

这是功能强大的图形处理平台,具有很好可扩展性和可用性。该技术已经被Facebook采用,Giraph可以运行在Hadoop环境中,可以将它直接部署到现有的Hadoop系统中。通过这种方式,你可以得到强大的分布式作图能力,同时还能利用上现有的大数据处理引擎。

Cloudera Impala

Impala模型也可以部署在你现有的Hadoop群集上,监视所有的查询。该技术和MapRece一样,具有强大的批处理能力,而且Impala对于实时的SQL查询也有很好的效果,通过高效的SQL查询,你可以很快的了解到大数据平台上的数据。

Gephi

它可以用来对信息进行关联和量化处理,通过为数据创建功能强大的可视化效果,你可以从数据中得到不一样的洞察力。Gephi已经支持多个图表类型,而且可以在具有上百万个节点的大型网络上运行。Gephi具有活跃的用户社区,Gephi还提供了大量的插件,可以和现有系统完美的集成到一起,它还可以对复杂的IT连接、分布式系统中各个节点、数据流等信息进行可视化分析。

关于c json解析到数据库实体的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。


数据运维技术 » C语言实现ON到数据库实体的解析 (c json解析到数据库实体)